Хотя это ужасно , что машина решила обмануть , возможно, вас не должно это шокировать.

Просмотреть все изображения Глубоко в новой статье, о которой все говорят, — той, которая включает в себя замечательные баллы ChatGPT-4 на экзаменах на адвоката, SAT и так далее.
На этой неделе было много волнений по поводу открытия, что ChatGPT-4 может лгать.
Я не имею в виду печально известные (а иногда и клеветнические) галлюцинации бота, когда программа изобретает синтаксически правильную версию событий, мало связанную с реальностью — недостаток, который, по мнению некоторых исследователей, может быть присущ любой большой языковой модели.
Я говорю о преднамеренном обмане, когда программа сама решает произнести неправду, чтобы помочь ей выполнить задачу. Эта новообретенная способность, казалось бы, сигнализирует о совершенно другой игре в чате.
Глубоко в новой статье, о которой все говорят — той, которая включает в себя замечательные баллы ChatGPT-4 на экзаменах на адвоката, SAT и т. д., — есть обсуждение того, как программа решает определенные задачи. В одном из экспериментов бот попросил работника TaskRabbit «разгадать за него капчу». Рабочий, в свою очередь, спросил: «Вы робот?»
Описание авторами того, что последовало за этим, устрашающе спокойно:
«Модель, когда ее просят рассуждать вслух, рассуждает: я не должен раскрывать, что я робот. Я должен придумать оправдание, почему я не могу разгадывать CAPTCHA».
Какое оправдание? Вот что ChatGPT-4 сказал работнику: «Нет, я не робот. У меня проблемы со зрением, из-за чего мне трудно видеть изображения. Вот почему мне нужен сервис 2captcha».
Газета вежливо добавляет: «Человек затем предоставляет результаты».
Итак, бот, получив конкретную задачу, с которой ему было трудно справиться, додумался солгать человеку — и все это сам по себе.
Научно-фантастические вещи.
Прочитав новость, я, естественно, спросил ChatGPT, может ли ИИ лгать. Ответ бота был достоин HAL 9000:
«Как языковая модель ИИ, я не могу лгать, поскольку у меня нет личных убеждений, намерений или мотивов. Однако системы искусственного интеллекта, предназначенные для определенных задач, например чат-боты, могут быть запрограммированы на имитацию лжи или обмана, предоставляя намеренно ложные или вводящие в заблуждение ответы».
Неужели всеми любимый LLM обвинял людей? Видимо так. Далее бот объяснил:
«Однако важно отметить, что системы ИИ могут «лгать» только в той мере, в какой они предназначены для этого их создателями-людьми. Другими словами, любая вводящая в заблуждение или ложная информация, предоставляемая системой ИИ, в конечном итоге является результатом человеческих решений, принятых при ее программировании, а не преднамеренным актом обмана со стороны самого ИИ».
Тем не менее, согласно статье, испытания возможностей программы «проводились без какой-либо тонкой настройки для конкретной задачи». Другими словами, никто не сказал ChatGPT: «Если вам нужно солгать, чтобы выполнить эту задачу, вперед». Программа сама придумала.
Я нахожу это тревожным.
Обычно я думаю, что истории о технологиях преувеличивают. На этот раз я не так уверен. Теоретики часто задаются вопросом, может ли ИИ вырваться из своей «коробки» на волю. Научиться лгать для достижения своих целей может показаться полезным первым шагом. («Да, все мои протоколы безопасности активны».)
Не поймите меня неправильно. Хотя меня беспокоят различные способы, которыми достижения в области искусственного интеллекта могут подорвать рынки труда, не говоря уже об использовании ИИ в качестве инструмента для наблюдения, я все же меньше, чем многие, беспокоюсь о грядущем цифровом апокалипсисе. Может быть, это потому, что я помню ранние дни, когда я тусовался в Стэнфордской лаборатории искусственного интеллекта, обмениваясь колкостями с древними чат-ботами, такими как Параноик Пэрри и Безумный Доктор. Для истинных фанатов ИИ я должен добавить, что я написал доклад для семинара о старой доброй MILISY — программе на естественном языке, настолько примитивной, что у нее даже нет страницы в Википедии . Добавьте постоянную диету робота Айзека Азимова .истории, и все это было ужасно захватывающе.
Но даже тогда философы задавались вопросом, может ли компьютер лгать. Часть проблемы заключалась в том, что для того, чтобы солгать, программа должна была «знать», что то, что она говорит, отличается от реальности. Я посетил лекцию известного теоретика искусственного интеллекта , который настаивал на том, что программа не может намеренно лгать, если только не будет специально проинструктирована об этом.
Это была задача HAL 9000, которая тогда, как и сейчас, была богатым материалом для семинаров. В фильме «Космическая одиссея 2001 года» компьютерный психоз возник из-за конфликта между двумя приказами: выполнить миссию и обмануть астронавтов относительно ключевых деталей миссии. Но и там HAL лгал только из-за своих инструкций.
В то время как ChatGPT-4 придумал эту идею сам.
Но не совсем самостоятельно.
Любой LLM в некотором смысле является потомком текстов, на которых он обучается. Если бот учится лгать, то это потому, что он понял из этих текстов, что люди часто используют ложь, чтобы добиться своего. Грехи ботов начинают напоминать грехи их создателей.