10 вопросов про A/B-тесты | Часть 1 | Валерий Бабушкин | karpov.courses

karpov.courses
1 Apr 202312:50

Summary

TLDRВ данном видео автор рассказывает о своем опыте проведения A/B-тестов в различных компаниях, включая Яндекс, X5 и Facebook. Он делится результатами и обсуждает важность правильного подхода к тестированию, выделяя такие моменты, как статистическая значимость результатов, ошибки на ранних этапах карьеры и важность корректного распределения трафика. Автор также упоминает примеры из медицины и аналогии с бросками монетки для объяснения статистических принципов, подчеркивая важность строгого соблюдения процедур и использования вспомогательных метрик для оценки результатов тестирования.

Takeaways

  • 💼 A/B тестирование было регулярной практикой в работе автора в таких компаниях, как Яндекс, X5, Facebook и стартапы, где было проведено множество тестов.
  • 🔍 Важным критерием хорошего A/B теста является статистически значимая положительная разница для бизнеса, в то время как негативная разница воспринимается не очень хорошо.
  • ⚠️ Одной из распространенных ошибок является преждевременное рассмотрение результатов тестов, что может повлиять на дальнейшие решения, даже если это происходит неосознанно.
  • 📊 На ранних этапах карьеры автор сталкивался с проблемами при перемешивании трафика, что влияло на результаты нескольких A/B тестов, наложенных на одних и тех же пользователей.
  • 🪙 Пример с монеткой помогает объяснить вероятность маловероятных событий и как это применимо в контексте A/B тестов, где крайне маловероятные результаты могут быть подозрительными.
  • 📅 Продолжительность теста имеет ключевое значение — использование калькуляторов для определения продолжительности помогает избежать ошибок, таких как слишком короткий или слишком длинный тест.
  • 🔄 Автор рекомендует проводить обратные эксперименты для проверки причинно-следственной связи, например, после проведения успешного теста вернуть предыдущую версию и убедиться в обратном эффекте.
  • 📈 A/B тесты должны учитывать как основную целевую метрику, так и вспомогательные метрики, которые могут показать потенциальную деградацию.
  • 🛠 Для успешного проведения A/B тестов необходимы валидация, проксиметрики и другие защитные механизмы для предотвращения ошибок и получения точных результатов.
  • 📚 Автор советует учиться на примерах крутых профессионалов и практиковать на симуляторах, чтобы развить навыки, а также читать статьи и материалы от компаний, таких как Netflix, Microsoft, Facebook и другие.

Q & A

  • Что считается хорошим результатом A/B-теста с точки зрения бизнеса?

    -Для бизнеса хорошим A/B-тестом считается тот, где наблюдается статистически значимая положительная разница, так как положительный результат улучшает показатели компании. Негативная разница, хоть и статистически значимая, не является желательной.

  • Какая типичная ошибка встречается при проведении A/B-тестов?

    -Одной из типичных ошибок является 'подсматривание' в результаты до завершения теста. Это может повлиять на решения и дальнейшие действия, так как преждевременный просмотр результатов может исказить восприятие данных.

  • Как влияет накладка тестов на одних и тех же пользователей?

    -Если один и тот же пользователь участвует в нескольких A/B-тестах одновременно, это может исказить результаты, так как эффект одного теста может быть неразрывно связан с эффектами других тестов, что затрудняет изолированную оценку.

  • Каким образом A/B-тестирование можно сделать более достоверным?

    -Один из способов повышения достоверности тестов — это проведение обратных экспериментов. Например, если изменение привело к положительному результату, нужно провести тест с обратным изменением, чтобы убедиться, что результат был именно следствием изменения, а не случайностью или эффектом новизны.

  • Почему важно не смотреть на результаты A/B-тестов до завершения теста?

    -Это важно, так как преждевременное ознакомление с данными может повлиять на решения и восприятие эксперимента, даже если намеренно не вносить изменений. Это можно сравнить с квантовой физикой: процесс наблюдения может изменить результат.

  • Как определить оптимальную длительность A/B-теста?

    -Длительность теста зависит от объема трафика и величины эффекта, который вы пытаетесь измерить. Для точности необходимо использовать калькуляторы, которые могут помочь оценить, сколько времени необходимо для достижения статистически значимого результата.

  • Что такое 'эффект новизны' в контексте A/B-тестов?

    -Эффект новизны возникает, когда пользователи начинают взаимодействовать с новым элементом (например, измененной кнопкой) не потому, что он лучше, а потому что он новый и привлекает внимание. Со временем это внимание может ослабнуть, и эффект будет менее выраженным.

  • Какие метрики важно учитывать при A/B-тестировании?

    -Важны как основные целевые метрики (те, на которые направлен эксперимент), так и вспомогательные метрики, которые помогают отследить деградацию в других аспектах. Это позволяет предотвратить негативные побочные эффекты от изменений.

  • Почему важно разделять ответственность за запуск и оценку A/B-тестов?

    -Это помогает избежать предвзятости. Идеальная ситуация — когда одна группа запускает тест, другая оценивает результаты, а третья получает результаты. Это снижает риск принятия неверных решений на основе личных предпочтений или ожиданий.

  • Какие ресурсы и материалы рекомендуется использовать для изучения A/B-тестирования?

    -Хорошие ресурсы включают статьи и материалы крупных компаний, таких как Netflix, Microsoft, Facebook и Яндекс. Также полезен симулятор A/B-тестов и материалы курса в hardML, которые помогают углубить понимание и избежать типичных ошибок.

Outlines

00:00

🧪 Опыт в A/B тестах и критерии успешности

Автор делится опытом работы с A/B тестами в различных компаниях, начиная с Яндекса и заканчивая стартапами. Он отмечает, что ключевым критерием успешности теста является статистически значимый положительный результат, и подчеркивает, что неудачные тесты также возможны. Автор считает, что 10-15% успешных тестов — это хороший показатель.

05:01

🔍 Ошибки в проведении A/B тестов

Автор обсуждает типичные ошибки при проведении A/B тестов. Он сравнивает тесты с квантовой физикой, указывая, что преждевременный просмотр результатов может повлиять на их восприятие. Также он отмечает проблемы с неправильным распределением трафика в начале своей карьеры, что приводило к наложению результатов нескольких тестов на одних и тех же пользователей.

10:03

💡 Понимание случайности и критических значений

Пример с монеткой помогает объяснить принципы случайности и вероятности в A/B тестах. Автор говорит о том, что критически маловероятные события могут указывать на аномалии в результатах тестов. Он также обсуждает необходимость использования калькуляторов для правильного расчета продолжительности тестов.

🛠 Как устроены обучающие модули для тестирования

Автор описывает существующие обучающие модули для A/B тестирования, разделенные на более простые и технически сложные. Он подчеркивает важность защитных механизмов, таких как валидация тестов и проксиметрики, для того, чтобы результаты тестов были корректными и имели смысл для бизнеса.

🔄 Обратные эксперименты и эффекты новизны

Обратные эксперименты — это способ проверить результаты A/B тестов, повторив тест с противоположными условиями. Автор упоминает про эффект новизны, который может искажать результаты, так как пользователи реагируют на что-то новое, а не на реальное улучшение. Такие проверки помогают укрепить уверенность в выводах.

👥 Непонимание целей и статистических критериев

Автор отмечает, что многие люди неправильно понимают, как работают A/B тесты, что приводит к ошибкам. Люди часто слепо следуют наборам действий, не понимая их смысла. Он приводит метафору 'каргокульта', где действия выполняются автоматически, без понимания их сути и целей.

📚 Где учиться и получать практику

Автор рекомендует учиться у экспертов в A/B тестировании и упоминает симулятор тестов как один из инструментов для практики. Он также советует читать статьи от крупных компаний, таких как Netflix, Microsoft и Facebook, для лучшего понимания практики онлайн-экспериментов.

Mindmap

Keywords

💡A/B-тестирование

A/B-тестирование — это метод проведения экспериментов, при котором сравниваются две или более версий чего-либо (например, веб-страницы или элемента интерфейса), чтобы определить, какая из них более эффективна с точки зрения целевых показателей. В видео это ключевая тема, поскольку автор рассказывает о своем опыте проведения A/B-тестов в Яндексе и других компаниях, подчёркивая важность правильного подхода и анализа данных.

💡Статистически значимый результат

Статистически значимый результат — это результат, при котором вероятность случайности настолько мала, что можно считать его достоверным. В контексте A/B-тестирования, автор подчеркивает важность получения именно таких результатов, так как они могут говорить о положительных изменениях в бизнес-процессах. Пример: «10-15 процентов A/B-тестов приносят статистически значимый положительный результат».

💡Проблема подглядывания (peeking problem)

Проблема подглядывания (peeking problem) возникает, когда результаты теста просматриваются до завершения эксперимента, что может привести к искажённым выводам. Автор сравнивает это с квантовой физикой, где наблюдение процесса может изменить его исход. Он отмечает, что такая ошибка является классической при проведении тестов и может негативно повлиять на конечные результаты.

💡Метрики

Метрики — это количественные показатели, которые используются для оценки эффективности A/B-тестов и других экспериментов. В видео автор говорит о том, что необходимо заранее определить целевые метрики, чтобы оценить успех теста. Также он упоминает вспомогательные метрики и метрики деградации, которые помогают отследить негативные эффекты и избежать ложных выводов.

💡Эффект новизны

Эффект новизны — это феномен, при котором пользователи начинают активнее взаимодействовать с новым элементом интерфейса или функциональностью только из-за того, что он новый, а не потому, что он более эффективен. Автор упоминает этот эффект, объясняя, что после проведения A/B-теста стоит подождать некоторое время, чтобы убедиться, что улучшение конверсии связано с качеством изменений, а не просто с новизной.

💡Обратный эксперимент

Обратный эксперимент — это метод повторного проведения A/B-теста, при котором изначальная версия возвращается, чтобы проверить, сохранится ли эффект от изменений. Автор рекомендует использовать обратные эксперименты для проверки причинно-следственной связи между изменениями в тестах и результатами, избегая случайных выводов.

💡Распределение трафика

Распределение трафика — это процесс деления потока пользователей на группы для проведения A/B-тестов. Автор рассказывает о том, что на ранних этапах своей карьеры сталкивался с проблемами некорректного распределения трафика, что привело к тому, что тесты проводились на одних и тех же пользователях, что искажало результаты. Это пример одной из ключевых сложностей при проведении экспериментов.

💡Калькулятор A/B-тестов

Калькулятор A/B-тестов — это инструмент, который помогает рассчитать необходимое время и объем выборки для проведения теста. В видео упоминается использование таких калькуляторов для определения, как долго должен длиться эксперимент, чтобы результаты были достоверными. Автор отмечает, что несоответствие мнений аналитиков и калькулятора должно вызывать вопросы.

💡Контрольная группа

Контрольная группа — это группа пользователей, которая не подвергается изменениям в A/B-тесте, и с результатами которой сравнивают тестируемую группу. Автор упоминает важность работы в среде, где контрольные группы строго соблюдаются, чтобы обеспечить объективность и точность тестов. Это помогает избежать влияния предвзятости и ошибок.

💡Симулятор A/B-тестов

Симулятор A/B-тестов — это инструмент, который позволяет имитировать проведение тестов, генерируя синтетические данные и проверяя гипотезы. Автор несколько раз упоминает симулятор как полезный инструмент для обучения, а также как способ избежать ошибок при работе с реальными данными. Такой симулятор позволяет получить практический опыт и понять, как работает A/B-тестирование.

Highlights

Начало работы с A/B тестами в Яндексе и запуск 1-2 тестов в неделю.

Проведение более 50-100 A/B тестов в X5 и 50 тестов в Facebook.

Основное качество успешного A/B теста: статистически значимая положительная разница.

Ошибки в начале карьеры: неверное перемешивание трафика, что влияло на точность тестов.

Тесты с переменными условиями на одних и тех же пользователях приводили к некорректным результатам.

Подсматривание промежуточных результатов теста — это классическая ошибка, влияющая на решение.

Нужно дождаться окончания теста, прежде чем принимать решение о его результатах.

Пример с монеткой помогает объяснить вероятность и критические значения в тестах.

Использование калькуляторов для расчета времени теста в зависимости от данных и целей.

Важно заранее знать размер выборки и эффект, который тест должен уловить.

Метрики проксиметрики помогают отслеживать побочные изменения во время экспериментов.

Проверка результатов с помощью обратного эксперимента для подтверждения причинно-следственной связи.

Ошибки новичков: непонимание, как правильно распределить трафик и использовать статистические критерии.

Симуляция распределений и параметров помогает обучаться и нарабатывать практику A/B тестов.

Рекомендации книг и статей от Рона Кохави, а также разборы на платформе Хабр.

Transcripts

play00:02

[музыка]

play00:24

я начал проводить абы тесты нормальным

play00:28

режиме когда устроился в Яндекс и в

play00:31

советники мы запускали примерно

play00:34

1-2б-теста в неделю и работал я там

play00:37

почти четыре года плюс еще примерно мне

play00:42

кажется

play00:44

50-100b тестов а может быть и больше в

play00:47

X5 плюс примерно 50 тестов в Фейсбуке

play00:51

500 + 2 либо be там немного

play00:56

10-20 мы сделали ну еще в ряде стартапов

play00:59

там по мелочи немножко блокчейне мы

play01:01

сейчас начали Пусть 550 чуть больше

play01:04

полутысяч

play01:05

[музыка]

play01:08

нужно ввести критерий хорошести правда

play01:12

ведь для бизнеса хорошая а/б-тест это

play01:14

тот в котором ты говоришь что

play01:15

эстетически значимая разница и она

play01:17

положительная потому что этически

play01:20

значимый негативная разница

play01:21

отрицательная она не очень хороша

play01:23

сложный вопрос были какие-то абы тесты

play01:25

которые были сделаны плохо а некоторые

play01:28

были особенно наверное в начале

play01:30

советники какие-то можно было делать

play01:31

лучше и какие-то мы сделали плохо или

play01:34

бабе именно потому мы потом меняли

play01:36

систему пили допиливали ее бы

play01:37

тестирование Но я считаю может быть

play01:39

около 10 может 15 может до 20 можно было

play01:43

сделать лучше а если мы говорим про

play01:45

результативность то на мой взгляд

play01:47

хороший показатель является 10-15

play01:49

процентов а б тестов которые приносят

play01:52

статистически значимый положительный

play01:54

результат это высокий процент

play01:56

[музыка]

play01:59

Ну классическая ошибка это особенно в

play02:02

начале периодически подсматривать в

play02:03

результаты то есть ну зачастую люди

play02:06

все-таки которые понимают к чему это

play02:08

ведет стараются решение не принимать но

play02:10

как ни крути это их аффектит то есть

play02:12

есть пикинг проблем суть в чем abts он

play02:15

почти как квантовые какие-то события как

play02:18

квантовая физика то есть нельзя смотреть

play02:21

на него до тех пор пока отведенный срок

play02:23

не произошел потому что можешь увидеть

play02:25

то что не нужно и на основе этого

play02:26

принять решение или эта информация Может

play02:28

на тебя повлиять И даже если ты не

play02:30

принимаешь решение Все равно что-то

play02:32

увидели на тебя дальше влияет на

play02:34

какие-то твои действия в целом поэтому

play02:36

медицине двойной С любовью Слепое

play02:38

плацебо тестирования какие-то иногда

play02:40

проблемки были с тем что не до конца мы

play02:43

перемешивали трафик в начале моей

play02:45

карьеры и получается что AB тесты

play02:48

наслаивались на тех же пользователей на

play02:49

которых были другие a/b-тесты и

play02:52

получалось что мы оценивали не эффект

play02:53

пятого теста изолировано эффект 5

play02:56

обтеста на пользователей которые

play02:58

получили четвертый третий второй первый

play03:00

то есть не совсем корректно но в целом

play03:03

повезло жестких ошибок не допускать в

play03:06

принципе уже была какая-то система AB

play03:07

тестов когда начал заниматься в Яндексе

play03:10

и дальше с этого я подхватил

play03:13

[музыка]

play03:17

Мне очень нравится пример с монеткой то

play03:20

есть можем взять любого менеджера

play03:21

практически любого и сказать вот монетка

play03:26

мы можем бросить разочек получить Орел и

play03:28

решку правильно

play03:29

и мы допустим верим что Это честная

play03:32

монетка согласен говорит согласен то

play03:34

есть честная монетка если мы бросим ее

play03:36

сто раз мы же понимаем что скорее всего

play03:38

50 раз орлом ровно она не выпадет она

play03:41

может выпасть 49 раз 50 один раз орлом

play03:44

52 55 Ну и в принципе на таком базу

play03:47

уровней люди понимают можно 100

play03:49

сократить до 10 и действительно ее

play03:51

побросать причем побросать 10 раз Потом

play03:52

снова 10 раз Потом 10 раз цифра скорее

play03:55

всего не совпадут Но дальше можно

play03:57

сделать следующее предложение смотри

play03:58

если монетка все сто раз подряд выпадет

play04:01

орлом Ну что-то явно не так то есть это

play04:03

в принципе вероятность этого события она

play04:06

отличная от 0 очевидно что это может

play04:08

произойти но настолько маловероятно что

play04:09

мы считаем Это неправда и уже на этом

play04:12

уровне человек понимает что-то мы

play04:13

понимаем в диапазоне того что похоже на

play04:16

правду вот эти 5149 52 48 и так далее а

play04:20

что-то 100 или 0 но абсолютно не может и

play04:23

уже дальше от этого можно говорить это

play04:25

критические значения где мы считаем что

play04:27

настолько маловероятно что это что-то

play04:30

а здесь все нормально это еще в пределе

play04:32

того что вы могли ожидать действительно

play04:34

же понятный пример

play04:42

Что такое обманывать Для начала нужно

play04:44

определить да То есть можно например

play04:47

попробовать воспользоваться какими-то

play04:49

готовыми калькуляторами или они в

play04:53

интернете есть и Просто попробовать

play04:55

посчитать Как долго обтес должен бежать

play04:57

если этот калькулятор говорит что он

play04:59

должен бежать 21 день аналитик говорит

play05:00

два дня естественно это просто Почему

play05:03

так быстро или наоборот А если там 10

play05:05

дней аналитик говорит 10 недель тоже

play05:07

Почему так долго понятно что таких

play05:11

случаев у нас симулятор в том числе и

play05:13

создан Там же есть два модуля есть

play05:15

модуль точнее даже не тоже два модуля

play05:16

там есть два типа обучения попроще ибо

play05:20

техничнее посложнее по техничнее нужно

play05:22

писать реализовывать все вещи или многие

play05:24

вещи самостоятельно попроще Чтобы

play05:27

понимать как это работает Как из кубиков

play05:28

собрать какие-то материалы что вообще на

play05:30

одном языке говорить то есть это в

play05:32

принципе то же самое что искал про

play05:34

калькулятор просто все в одном месте

play05:35

собраны Ну а дальше всегда должны как я

play05:38

уже говорил быть какие-то защитные

play05:39

механизмы

play05:40

валидация вот тестов проведения а

play05:43

тестирования какие-то проксиметрики и

play05:45

так далее ну и в конце концов мы обтесты

play05:48

проводим не просто так чтобы метрики

play05:51

менялись правильно росли соответственно

play05:53

в каком-то большом количестве же можно

play05:55

сказать совершенно тестов Ты везде

play05:57

сказал что у нас процент к чему-то мы

play06:00

вообще этого не видим по итогу как-то

play06:01

странно 10 процентов мы должны были

play06:04

заметить

play06:05

Но это сложно

play06:12

Обязательно должна быть Метрика интереса

play06:14

который мы хотим оценить понятно что

play06:17

если ее нет понятно что у нас может

play06:20

Метрика интереса быть одна мы не можем

play06:22

оценить У нас есть прокси метр в любом

play06:23

случае это Метрика наша целевая метка

play06:25

эксперимента дальше должен быть размер

play06:27

выборки заранее известный тот эффект

play06:30

который мы можем поймать заранее

play06:32

известный от этого уже выходит Как долго

play06:35

мы этот обтес держим то есть эти без

play06:37

этих вещей невозможно если у нас есть

play06:39

трафик мы сумели его разбить мы знаем

play06:41

какой эффект мы ловим мы знаем На что мы

play06:44

его ловим этого в принципе для начала

play06:45

достаточно дальше в принципе есть такая

play06:47

вещь как вспомогательные метрики и

play06:50

метрики по которым мы смотрим деградацию

play06:52

то есть вспомогательные метрики мы

play06:54

говорим вот если это изменится скорее

play06:55

всего за собой потянет еще это такой

play06:58

Саньки чек А вот это допустим у нас не

play07:01

должно просесть какая-то Метрика дальше

play07:04

что еще можно накрутить хорошей

play07:05

практикой является накручивать обратный

play07:07

эксперимент то есть что это значит мы

play07:09

провели аб-тест Мы увидели что после

play07:11

замены красной кнопки на кирпичной у нас

play07:14

увеличилось на пять процентов конверсии

play07:16

мы раскатили на всех пользователей мы

play07:19

подождали какое-то время потому что еще

play07:21

такая вещь как эффект новизны то есть

play07:24

люди могут кликать по кнопке Не потому

play07:26

что она стала лучше потому что что-то

play07:28

новенькое раньше не замечал а потом

play07:30

приедается мы раскатываем на всех Мы

play07:32

ждем какое-то время две недели месяц

play07:35

потом мы проводим Опять обтес где у нас

play07:38

уже дефолтный вариант это

play07:40

кнопка кирпичного цвета а новый вариант

play07:44

то как было раньше то есть мы чего

play07:45

ожидаем ожидаем что вот этот обратный

play07:47

эксперимент нам покажет негативный

play07:49

результат правильно Если прямой дал

play07:50

позитивный то обратно должен быть

play07:52

негативный тоже хорошая проверка на

play07:53

видишь это все дополнительные накрутки

play07:55

на BTS и тогда это очень полезная

play07:58

практика то есть здесь точно показал

play07:59

причинно-следственную связь это дает

play08:02

плюс

play08:05

Но это все уже допало дополнительно

play08:07

дополнительно различные провок

play08:09

симметрики иерархии метрик и так далее

play08:11

Все уже сложнее сложнее сложнее

play08:16

никак всегда будет некая предвзятость Ну

play08:20

то есть стоит максимально себя от этого

play08:22

огороде то есть в идеале Одни люди

play08:23

запускают другие люди оценивают неплохо

play08:26

это работает в ряде контроль где я

play08:29

работал у нас так и было валидация

play08:30

отдельно а бы тесты отдельно а Люди для

play08:32

которых тесты делают еще отдельно То

play08:35

есть в принципе заинтересованы те люди

play08:37

которые запускают этот тест читают Его

play08:40

другие люди валидируют третьи люди Ну а

play08:45

если так не получается то хотя бы

play08:46

фиксировать на бумажке весь дизайн

play08:48

эксперименты весь дизайн бтеста и его

play08:52

придерживаться

play08:53

и фиксировать придерживались мы его или

play08:56

нет

play09:00

[музыка]

play09:01

на самом деле подавляющее большинство

play09:03

вообще не понимает как делать обтесты то

play09:05

есть ошибки начинаются везде часто люди

play09:09

просто

play09:10

берутся за какое-то распределение за

play09:13

какое-то статистический критерий и не

play09:15

понимают как он работает ну то есть

play09:17

условно говоря что такое подавляющее

play09:19

большинство статистических критериев мы

play09:22

накидываем какую-то функцию на какое-то

play09:24

распределение получаем значение этой

play09:26

функции статистику получаем

play09:28

распределение этой статистики И говорим

play09:30

что это какие-то критические значения по

play09:32

факту если у нас достаточно много данных

play09:34

можем одну функцию применять практически

play09:37

ко всему просто получать распределение

play09:39

статистик и использовать ее где угодно а

play09:42

люди часто вбивают себе в голову что

play09:44

тест мы не можем применять здесь и здесь

play09:46

Но если ты понимаешь зачем ты принимаешь

play09:49

эти тесты как ты используешь определение

play09:50

статистики все можно сделать то часто у

play09:53

людей идут проблемы с тем как правильно

play09:56

сплетит трафик но в целом мне кажется

play09:58

что основную проблему которую видел что

play10:00

они не понимают они не видят леса за

play10:02

деревьями то есть они не понимают для

play10:05

чего это делается как они выучивают

play10:07

набор неких последователей неких

play10:10

действий как каргокульт сейчас построим

play10:12

из бамбука аэропорт прилетят самолеты и

play10:16

привезут ништяки

play10:22

в идеале в идеале работать там где уже

play10:26

умеют это делать работать с крутыми

play10:28

чуваками первый момент

play10:30

очевидно что работает с крутыми чуваками

play10:32

удается далеко не всем

play10:35

и не всегда получается второй вариант

play10:38

нужно учиться там где этому учат

play10:41

конкретные бьют по пальцам по бы тестам

play10:43

хороших курсов практически нет очень

play10:46

хороший модуль в хард-мэль Ну и

play10:48

собственно симулятор AB тестов он для

play10:51

того частично и сделан тоже чтобы

play10:52

перенять какую-то практику плюс всегда у

play10:55

его создателей Можно спросить совета но

play10:57

я в целом не знаю как можно учиться

play10:58

кроме как обезьяны то есть старший

play11:01

обезьяна тебе показывает Ты смотришь

play11:03

потом пытаешься повторить и тебя

play11:04

поправляют

play11:09

Да нет ну можно набивать руку Ну

play11:11

во-первых уже третий раз рекламирует

play11:13

симулятор понятно что было невозможно

play11:15

вот мы делали симулятор но по факту Мы

play11:17

же можем симулировать любые

play11:18

распределения с любыми параметрами и При

play11:21

желании тут можно поиграться что один

play11:23

знает параметр этих распределений

play11:24

генерит из них выборки а другой просто

play11:26

делает тесты и пытается поймать эти

play11:28

эффекты То есть это это как раз

play11:30

очень-очень даже реально плоды того что

play11:32

можно написать программку в которой ты

play11:34

не знаешь но потом логируешь реальные

play11:36

значения распределение и делаешь

play11:38

какие-то Вот здесь все очень можно все

play11:42

очень довольно просто сделать

play11:43

синтетические и ловить

play11:48

Я не видел ни одной нормальной книги по

play11:52

обтестам нарцисс баги Ян и некоторые мои

play11:54

друзья рекомендовали начальную книгу

play11:56

Рона кохави по транспорте что-то там

play11:59

онлайн эксперимент но у меня есть я

play12:02

как-то давал ссылки в том же Карпов

play12:04

курса отвечайте там примерно 50 или 60

play12:07

статей по об статьи статьи статьи статьи

play12:10

netflix Microsoft Facebook LinkedIn

play12:15

uber

play12:16

дордеш Яндекс у них хорошие статьи можно

play12:21

посчитать что мы Саша сахновым писали на

play12:25

хаврели что Саша отдельно писал или

play12:27

выступления какие-то даже мой

play12:29

телеграм-канал можно почитать и там

play12:31

разбирал один наброс на кьюпет от

play12:35

человека на хаббре у нас там вышел

play12:36

хороший разбор 70 комментариев

play12:39

линкина гитхаб примерами кода

play12:47

[музыка]

Rate This

5.0 / 5 (0 votes)

Related Tags
A/B тестированиестатистикаметрикибизнестрафикпоказателитесты эффективностиошибки тестовоптимизацияанализ данных
Do you need a summary in English?