Kira Kuzmenko | 27 февраля 2025 года, 03:46

Джоб интервью. Вот скажите, как сечь, что человек на том конце сидит с ChatGPT. И я не знаю, условно друг набирает вопросы, он видит ответы и на лету пытается их использовать, не очень понимая. Не могу сказать с уверенностью что это был именно случай с чуваком, которого я интервьюировал недавно, но очень похоже.

Я в процессе выяснил, что с этим можно частично бороться, задавая вопросы, на которые нет простого ответа, и через вопросы блиц, на которые ChatGPT быстро ответить может, но если человек не в теме, быстрый ответ LLM ему не особо поможет, а длинный читать некогда. То есть, ChatGPT все равно правильно ответит, но чтобы использовать ответ ChatGPT, человеку нужно внимательно прочитать простыню текста из ответа. И наоборот, не надо задавать вопросы, на которые ChatGPT сразу дает ответ.

Но вообще это целое дело такие вопросы придумывать.

К примеру, вместо вопроса «Чем отличается SOAP от REST», лучше спросить «для какой задачи REST API вероятно не самый лучший выбор». ChatGPT начинает давать умный ответ с пунктиками, который без понимания нельзя просто с экрана читать.

Но вообще интересно, что придумали HR чтобы бороться с подсказками от LLM? ведь вообще-то можно неплохо натренировать LLM на то, чтобы на экране показывалось то, что в целом тебе знакомо, но сам вспоминать будешь дольше и с ошибками.

В конце интервью попросил Live Coding — shuffle the array, где я планировал менять постановку задачи после получения первого варианта кода. Ну вы поняли, там даже первый не появился дальше, чем заголовок метода shuffle().

Kira Kuzmenko

Оставьте комментарий