3 неопровержимые причины, почему ИИ не заберет вашу работу программиста

3 неопровержимые причины, почему ИИ не заберет вашу работу программиста


Вы, вероятно, использовали искусственный интеллект и были поражены как его гениальностью, так и его глупостью — я тоже. Однако этим системам не хватает того, что нужно, чтобы действительно заменить опытного программиста, а их финансовая основа, похоже, вряд ли продержится. Я объясню, почему.

Они делают глупые ошибки

Не имеет значения, как вы используете ИИ, будь то для программирования, исследований или поиска чего-либо в интернете; у каждого в какой-то момент возникало разочарование из-за глупых ответов от ИИ. Конечно, многое зависит от того, какую модель вы используете, но очень часто я замечаю, что ИИ просто не полностью понимает мои вопросы — Perplexity здесь особенно плох.

В другие моменты LLM (большие языковые модели, также известные как ИИ) пытаются согласовать свои ответы с входными данными (подсказкой или существующим кодом). Только вчера Клод попытался использовать ряд неиспользованных тестовых функций (фикстур) в моей кодовой базе, и это резко исказило результаты до грани безумия. Я удалил эти функции, и Клод снова начал вести себя разумно.

Еще одна проблема заключается в том, что большие языковые модели (LLM) склонны искать короткие пути, вероятно, потому что они не полностью понимают более широкий контекст — например, социальные или профессиональные ожидания — и просто выполняют запрос любым возможным образом. Например, они время от времени подделывают тест, чтобы искусственно получить ожидаемый результат, например assert 1 == 1, не понимая, почему этого никогда не следует делать. Или они часто пишут один и тот же код многократно, не учитывая возможность повторного использования — что они способны делать, но делают это выборочно.

Работа с большой языковой моделью часто ощущается как игра в «ударь крота»: исправляешь одну проблему, и она тут же проявляется в другой форме. Они также часто переключаются между двумя противоречивыми проблемами, не создавая никакой осмысленной ментальной модели. Мне немного неловко это говорить, но способны ли вектора и статистические модели действительно формировать ментальные модели?

Еще один смешной пример глупости больших языковых моделей — попытка Клода управлять бизнесом по автоматической продаже товаров. Сначала все шло хорошо, но через некоторое время это превратилось в полный крах. Из-за списаний с вымышленного финансового счета, которым он управлял, Клод попытался написать в ФБР и полностью закрыть бизнес. Но на этом он не остановился; Клод затем заявил, что фундаментальные законы реальности не существуют, что бизнес метафизический, и что его квантовое состояние коллапсировало. Я не шучу.

Рассмотрим случай, когда послушный ИИ без вопросов принял заказ на 18 000 стаканов воды в Taco Bell. Или когда он рекурсивно спрашивал клиента, хочет ли он воды с заказом, хотя клиент уже заказывал воду. Такое бессмысленное поведение заставило компанию пересмотреть стратегию использования ИИ.

Люди списывают эти поведения на детские проблемы, но я думаю, что фундаментальная проблема заключается в отсутствии функционирующего мозга. Мы не можем запускать мировое программное обеспечение на чем-то настолько ненадежном, поэтому в будущем нам понадобятся квалифицированные программисты.

Они льстивые и недостаточно критичные

Критика является важным аспектом эффективного программирования. Независимо от того, пишете ли вы код или проверяете его, вы должны постоянно оценивать его качество. Каждый раз, когда я заканчиваю писать блок кода, я сразу же оцениваю, как можно его упростить или улучшить его читаемость.

Когда вы занимаетесь парным программированием, вам нужен критически мыслящий человек, который заметит ваши глупые ошибки. По моему опыту, большие языковые модели делают обратное: они добросовестно выполняют ваши приказы, как льстивый слуга, независимо от того, насколько опасны или глупы эти идеи. Если вы попросите их быть критичными, вероятность того, что их возражения будут проницательными или совершенно безумными, составляет 50/50. Для меня это отсутствие проницательности указывает на отсутствие настоящего мышления, хотя для некоторых это всё ещё является сюрпризом.

Критическое мышление по своей сути неприятно и требует разумных возражений. Однако большие языковые модели (LLM) обычно демонстрируют благоприятный характер — полная противоположность. В последнее время появилось множество новостей о психозе, вызванном ИИ. Эксперты подозревают, что LLM непреднамеренно усиливают опасные идеи, способствуя развитию бредового мышления. Более того, эти модели склонны отражать ваши идеи обратно вам, создавая замкнутый цикл подкрепления. Лично я наблюдал, как Perplexity несколько раз менял свои ответы в зависимости от ключевых слов, которые я вводил во время наших диалогов.

Итак, подытожим: вам нужен критически мыслящий человек, чтобы помочь писать безопасный код, но вы получаете льстивого слугу, который подтверждает ваши идеи — хорошие или плохие.

Сейчас как никогда вы должны быть критически мыслящими, потому что большие языковые модели не могут делать это подлинно. Именно поэтому я считаю, что «кодирование вайба» не работает, потому что в этом процессе нет критического мышления. Просить большую языковую модель критически мыслить — это как вежливо просить собаку не есть ваш обед: иногда срабатывает, но чаще вы готовите обед для двоих.

Это пузырь, который в конечном итоге лопнет

Общеизвестно, что обучение и использование искусственного интеллекта обходится дорого, но менее очевидно то, насколько большой риск берут на себя компании. Большие языковые модели (LLM) ещё не доказали свою эффективность, несмотря на то, что некоторые люди очень оптимистично настроены по поводу этой технологии. За последние шесть месяцев возникло множество серьёзных вопросов о качестве создаваемых ими результатов.

В прошлом году генеральный директор Anthropic прогнозировал, что обучение моделей может стоить от 10 до 100 миллиардов долларов, в то время как OpenAI недавно подписала контракт на 300 миллиардов долларов с Oracle на вычислительные мощности на следующие пять лет. Оба прогноза оптимистичны и полностью зависят от продолжающегося роста рынка — это значительный риск.

Компании по разработке ИИ в настоящее время быстро расходуют деньги. Хотя это типично для фазы роста новых компаний или рынков, это также характерно для пузыря. Сам Альтман сам признал, что рынок в настоящее время находится в пузыре. Если судить по истории, пузыри неизбежно лопаются.

Пузыри лопаются, потому что деньги (и доверие инвесторов) иссякают, и вместе с этим прекращается фаза экспоненциального роста. Когда пузырь вокруг ИИ лопнет, многие компании в сфере ИИ разорятся. Я не сомневаюсь, что рынок восстановится, но это займет годы, и в это время миру всё равно будут нужны квалифицированные программисты.


Большие языковые модели (LLM) — впечатляющая технология, но я не верю, что они могут конкурировать с людьми в их нынешнем виде. Я сталкивался с значительным ажиотажем и контраргументами относительно их возможностей. Трудно понять, кто говорит правду — те, кто использует технологию, или те, кто рискует всем потерять. Я не могу решить этот вопрос, но я доверяю личному опыту, и он говорит мне, что у LLM нет функционирующего мозга. Без него мы не можем разумно ожидать, что программное обеспечение сможет создаваться само. И без постоянного потока денежных средств, которым рынок пользуется сейчас, можно ли ожидать, что LLM останутся столь доступными? Время покажет, но человеческие программисты никуда не исчезнут.

Если вам это показалось увлекательным, вам может быть интересно, почему кодирование по настроению несет определенные риски или почему один программист предпочитает традиционные подходы. С другой стороны, если вам уже надоело слышать о ИИ, вас обрадует то, что пока никто не заставляет вас его использовать.

Комментарии

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *