Наверное, каждый инженер-программист сталкивался с собеседованием у доски. Ради вопроса скажем, что собеседование на доске - это собеседование, на котором кандидату предлагается решить проблему на доске без использования реальных инструментов разработки. А тема задачи, скорее всего, алгоритмы и структуры данных.
Если вы поищите в Интернете «интервью у доски», кажется, что это понятие воспринимается как нечто негативное. Основная причина, по-видимому, в том, что люди думают, что результат интервью у доски не похож на рабочую среду. Таким образом, невозможно показать способность кандидата выполнять работу. И это считается несправедливым обеими сторонами процесса найма: 1 2 3 .
Но все эти статьи основаны на опыте одного или нескольких человек. Итак , есть ли научные исследования эффективности интервью у доски? Я не ожидаю, что научные исследования ответят на вопрос «Являются ли интервью у доски плохими?». Но я ожидал чего-то вроде
Мы думаем, что собеседование на доске хорошо подходит для того, чтобы понять X о кандидате. Мы измеряем «хорошесть X», используя метрику Y. И мы измеряем эффективность интервью с помощью Z. Вот зависимость Y(Z) , из которой мы заключаем, предполагая, что Y является хорошей метрикой X , что интервью на доске достаточно хороши/плохи для понимания X .
Это сложная проблема выбора X и Y . Но я подозреваю, что умные ученые все же могут придумать какую-то модель.
Например. Возможно , X может быть эффективностью человека , которую действительно трудно измерить, но крупные компании все еще пытаются сделать это с помощью обзоров производительности. Допустим, Y – это среднее значение первых трех оценок по отзывам . А Z будет средним значением оценок рецензентов . Есть ли корреляция между Y и Z .
Может быть, даже что-то более простое. Давайте ответим на вопрос «Насколько хорошо наши отзывы измеряют вовлеченность человека в нашу компанию ?». Затем попробуйте измерить это с помощью Y - *количество людей, покинувших компанию в течение первых 3/6/9/12 месяцев. И построить гистограмму в зависимости от оценки Z - обзора .
Итак, есть ли научные исследования эффективности интервью у доски? Существует сложная проблема измерения эффективности человека, но все, что связано с реальными цифрами, статистикой и выводами, было бы здорово.
Как вы оцениваете эффективность интервью?
Я знаю, что вы упомянули о сложности оценки эффективности, но затем все еще задаете тот же вопрос, что кажется странным. Если вы не можете объективно оценить это, то вы не можете окончательно ответить на этот вопрос.
Может быть, какая-то крупная компания подсчитала истинный положительный рейтинг людей, которые успешно прошли собеседование на доске и действительно отлично поработали.
Предположение, что это верная метрика, является точно таким же ошибочным предположением, которое приводит к мысли, что интервью на доске являются хорошим маркером способностей.
Проблема заключается не в найме людей, которые проходят собеседование на доске (и могут подходить или не подходить для этой должности). Проблема заключается в том, что не нанимают людей, которые подходят для этой должности, а просто не проходят тест, который не проверяет их соответствующие способности.
Подумайте об этом так:
Интервьюер отказывается брать на работу тех, кто проучился в колледже менее пяти лет. Цель интервьюера ясна: отсеять «неквалифицированных» кандидатов, чтобы оценивались только «квалифицированные» кандидаты. Однако его показатель (время, проведенное в колледже) ошибочен.
Я использую «квалифицированный» и «неквалифицированный» в качестве упрощенного различения мнения интервьюера о необходимых навыках для данной должности. Я не пытаюсь навешивать ярлыки на людей.
Вот почему метрика ошибочна: она на самом деле не отделяет «квалифицированных» от «неквалифицированных». На самом деле он не достигает цели, для достижения которой он предназначен.
Та же проблема с интервью на доске. Он используется для отсеивания людей, которым не хватает определенных навыков, но он проверяет неправильный показатель и, следовательно, приводит к тому, что интервьюеры отклоняют кандидатов с соответствующими навыками, а также потенциально предлагают работу кандидатам на основе неправильных навыков.
Подводя итог цитате (которую часто ошибочно приписывают Эйнштейну):
Если судить о рыбе по ее способности лазить по деревьям, она всю жизнь проживет, считая себя глупой.
Важным неупомянутым фактором здесь является то, что интервьюер ожидает увидеть на доске.
Основная причина, по-видимому, в том, что люди думают, что результат интервью у доски не похож на рабочую среду.
Я, например, совсем плохо запоминаю синтаксис наизусть. Тем не менее, я очень быстро гуглю связанные темы, нахожу пример фрагмента и адаптирую его под свои нужды. Я знаю, что это звучит в мой собственный рог, но я могу превзойти большинство коллег по скорости реализации чего-то с нуля.
Однако если вы поставите меня перед доской и попросите написать код для десериализации XML-файла, то я даже не буду знать, какой класс используется для (де)сериализации.
Это может привести интервьюеров к выводу, что я даже не знаю основ, а мой репертуар кодирования слишком мал; тогда как обратное также может быть правдой: мой репертуар кодирования слишком велик , чтобы запомнить весь синтаксис наизусть, и я знаю больше, чем просто основы, до такой степени, что просто не сосредотачиваюсь на основах.
Вот почему «непохожесть на рабочую среду» снижает ценность упражнения на доске. Не все работают одинаково. Повторение знаний наизусть не является основным показателем, по которому вы измеряете способности разработчика. И в этом суть того, почему собеседование на доске не является хорошим подходом.
Во всяком случае, вы должны измерять способность разработчика адаптироваться к новым системам и понимать существующий код, так как это гораздо более ценный навык.
Однажды мне дали такое интервью. Они распечатали свою производную DbContext
реализацию и попросили меня указать, что они реализовали. Они искали такие ответы, как обратимое удаление, разбиение на страницы, аудит полей, отслеживание изменений. Они также представили две ошибки. Моя способность оценивать существующий код имеет гораздо большее значение, чем возможность создать свой собственный класс из воздуха.
Во-вторых, он оставляет дверь открытой для логической ошибки инверсии.
Допустим, интервьюер просит вас наизусть перечислить все методы Entity Framework, упорядоченные по длине имени метода (я знаю, что это глупый пример, но я хочу использовать пример, в котором мы не отвлекаемся на споры о том, что лучше всего использовать). ответ есть).
Если заявитель может это сделать, то это (косвенное) доказательство того, что он должен иметь большой опыт работы с Entity Framework. Без опыта работы с Entity Framework он бы не смог этого сделать.
Однако вполне вероятно, что интервьюер неправильно извратит эту логику. Если приложение не умеет этого делать, это не значит, что у него нет опыта работы с Entity Framework. Эта инверсия является логической ошибкой.
Вот почему эти вопросы плохие. Когда соискатель сталкивается с подобным вопросом, он оказывается между молотом и наковальней:
Независимо от того, попадает интервьюер в ловушку ошибки или нет, существование вопроса всегда ставит кандидата в неловкое положение, поскольку ему приходится оценивать знания интервьюера (об ошибке), прежде чем он сможет дать соответствующий ответ. По сути, это азартная игра , и вам действительно не следует (не) нанимать людей на основании (не) того, что вы угадали правильно.
If I understood you correctly - you say, that if something is difficult to measure - it is not worth to measure it at all.
Я не об этом. Я хочу сказать, что невозможно приписать успех интервью какой-то одной причине. Вы пытаетесь использовать приблизительные метрики, которые недостаточно точны, чтобы дать вам осмысленный ответ (что похоже на недостаток интервью у доски: чрезмерно обобщенные метрики, которые не затрагивают основной фокус). Это также полностью отличается от обзоров производительности или выставления оценок.Sorry, I don't like your answer, because it doesn't answer my question.
Это ответ на ваш вопрос, ответ просто не такой, как вы ожидаете. Если вы спрашиваете, существует ли что-то, а также исключаете возможность того, что этого не существует, то ваш вопрос спорен. Я не могу доказать отрицательное (отсутствие существования исследований). Если вы хотите утверждать, что исследования существуют, то на вас лежит ответственность доказать свою точку зрения.You're trying to use approximate metrics that are not precise enough to give you
, да, чтобы сделать вывод, вам нужны исследования, показатели и их точность. Это в основном то, о чем я прошу. В любом случае, я отредактировал свой ответ, что, вероятно, делает его более понятным. Спасибо за ваши комментарии.
Человек в маске
ДокторМойша
Адриано Репетти
Толстяк
Солнечная вспышка
Флейтер
Флейтер
I just would like to see whether negative experience of developers backed-up scientifically.
Я изо всех сил пытаюсь понять, как это может быть научно доказано. Научное доказательство чего-либо по своей сути означает, что оно поддается объективному измерению. «отрицательный опыт разработчиков» по своей сути субъективен по определению слова «опыт» в данном контексте. В лучшем случае вы можете опросить мнения. И даже если все опрошенные сходятся во мнении, вы все равно ничего не доказали .Флейтер
Maybe X could be person's effectiveness, which is really hard to measure, but big companies still try to do it with performance reviews.
Вы не можете сравнивать интервью на доске с обзорами производительности. Интервью на белой доске оценивают навыки вне естественной рабочей среды по шкале времени 10-20. Обзоры производительности оценивают навыки в естественной рабочей среде, обычно в годовой шкале. Разница между этими двумя понятиями является ключевой причиной, по которой собеседование на доске считается бесполезным для оценки навыков разработчика.Флейтер
Let's say Y is the average of first three review grades. And Z will be average of reviewers grades. Is there any correlation between Y and Z.
Разве вы только что не определили корреляцию как Z как среднее значение Y?Флейтер
Maybe even something simpler. Let's answer question "How well do our reviews measure person's involvement in our company?"
Как вы измеряете вовлеченность? Это, как известно, трудно объективно измерить. Если я помогаю своему коллеге что-то понять, засчитывается ли мне работа, которую он проделал на основе его улучшенного понимания? Какой коэффициент кредита я получу? Как это отслеживается? Засчитывается ли ошибка в первоначальном анализе, вызвавшая серьезную переработку, в мой вклад? Вы продолжаете пытаться использовать несовершенные и расплывчатые метрики, что сводит на нет цель получения точного результата.Флейтер
ДокторМойша
Майлз
ДокторМойша
Флейтер
Many companies have standards on interview processes.
Наличие определенного стандарта никоим образом не делает результат значимо измеримым. Тот факт, что у компаний есть свои собственные стандарты, убедительно свидетельствует о том, что не существует объективной меры того, что является объективно лучшим.So, it wouldn't be so hard inside one company.
Вы все еще упускаете из виду тот факт, что невозможно правильно приписать найм кого-то (или нет) конкретным причинам, таким как тест на доске. Интервью по своей сути являются многогранными и субъективными оценками.