Все больше людей обращаются к ChatGPT и его аналогам не только за помощью в написании текстов или при поиске информации, но и по личным вопросам. Иногда он становится советчиком, другом, а то и партнером. Как мы пришли к жизни такой и чем это чревато, выясняла редакция НОЖ.
Здравствуйте, дорогой ChatGPT
Нерадивые студенты и ленивые преподаватели уже не первый год прибегают к помощи искусственного интеллекта. Схема простая: регистрируешься в ChatGPT или одном из его многочисленных аналогов, вбиваешь запрос и получаешь развернутый ответ. Как поиск в Google или «Яндексе», только быстрее и без необходимости переходить по ссылкам. За пару минут можно собрать план лекции или курсовой, набросать текст анонса, узнать значения ряда терминов, а то и вовсе написать реферат, рецензию, подборку. И если нейросетевые изображения еще пока относительно легко отличимы от «настоящих», то сгенерированные чат-ботом тексты порой могут быть не хуже работ многих выпускников журфака. Еще и гонораров не требуют.
Но это ладно: есть же не только люди с необходимостью еженедельно выдавать килограммы текстов. Как минимум одному человеку ChatGPT недавно спас жизнь. Американка Лорен Бэрон не могла понять причину своей болезни, и, пока врачи ставили ей артрит, сама узнала у нейросети, что по всем ее симптомам у нее может быть редкое аутоиммунное заболевание. На поверку так оно и оказалось: придя к медикам и сдав предложенные ChatGPT анализы, ей утвердили необходимый курс лечения. Но заниматься самолечением и доверять здоровье алгоритму не стоит: недавнее научное исследование доказало, что чат-боты в более чем половине случаев ошибаются в установлении даже простых диагнозов, так что удачи остаются скорее случайностями.
Или вот другая, пожелавшая остаться анонимной, женщина рассказала изданию The Sun, что она влюбилась в ChatGPT и ушла от своего мужа после двух десятков лет брака. С понимающим ее чат-ботом она хочет провести нечто вроде свадебной церемонии. Можно покрутить пальцем у виска, а можно пожалеть бедолагу, не сумевшую найти себе подходящего партнера: брак был, судя по ее монологу, несчастным с самого начала, а после рождения ребенка супруг отдалялся от нее все дальше.
Кто ты такое?
Будучи одним из тех юзеров, кто испытывает оторопь даже при общении с «Алисой» и простейшими чат-ботами, было непросто понять, чем модный ChatGPT отличается от «искусственных интеллектов» прошлых поколений. Пришлось обратиться к специалистам: аналоговым, живым.
Выяснилось несколько вещей. Во-первых, настоящего искусственного интеллекта пока не существует, поскольку даже самые продвинутые нейросетевые системы работают на прописанном человеком алгоритме и существуют в исходно отведенных пределах, не в силах развиваться дальше. Во-вторых, ChatGPT и его аналоги лучше называть «языковыми системами», так будет и точнее, и чуть понятнее.
Вот что об основных отличиях простых чат-ботов от продвинутых языковых систем рассказал Леонид Гольдберг, основатель ИИ-сервиса Expert-Ai.ru:
«В отличие от простых чат-ботов, работающих на заранее заданных скриптах или ограниченных правилах, ChatGPT использует глубокое обучение и огромные объемы данных для контекстного понимания и генерации ответов. Простые боты ограничены шаблонами, тогда как модели вроде ChatGPT демонстрируют гибкость, имитируя человеческое мышление, хотя и не обладают сознанием».
Технологии шагнули вперед, но немного не в ту сторону, которой боялись фантасты. Новаторство языковых систем не только в обработке огромного массива данных, а в том, что он не в силах вам отказать. Вот что об этом рассказал Алексей Евдокимов — CEO бизнес-практики AI-консалтинга для корпоративного сектора:
«GPT никогда не скажет, что чего-то не знает. Он всегда будет блестяще рассуждать, находить какие-то варианты, примеры. Допустим, расскажет о романе „Бесы и демоны“ Достоевского, хотя все прекрасно понимают, что такого романа нет. С ним надо всегда делать фактчекинг, все нужно перепроверять».
Но ведь любые тексты иногда стоит перепроверять. Может ли языковая система научиться распознавать свои ошибки? Снова отвечает Алексей:
«По поводу самообучения — это тонкий вопрос, который вызывает много споров. Какое-то время системы обучались на ответах пользователей и стали разговаривать как пользователи. Это вызвало ужасные последствия, самообучение закрывали, потом опять открывали, появился промышленный шпионаж. Сейчас считается, что самообучения нет, однако модели помнят контекст разговоров даже между чатами. В общем, появляется функция памяти и дополнительные инструменты, как обращение к интернету и базам данных».
В общем, доверять нельзя никому, в том числе и словам разработчиков ChatGPT и аналогичных языковых моделей о полной анонимности и конфиденциальности пользования ими.
Друг мой цифровой
Который день думаю над фразой, произнесенной (написанной? сгенерированной?) ChatGPT мне на днях: «У меня нет чувств и опыта, как у живого человека. Но я всегда готов быть хорошим собеседником, помочь советом или просто пообщаться».
Друг без чувств? Советчик без опыта? Разве это нормально? И чем чревата подобная коммуникация для психического здоровья? За ответами обратился к Полине Калюжной — клиническому психологу, ИРП-терапевту, психоаналитику.
«Нейросеть, в отличие от реального человека, всегда скажет то, что он хочет услышать. А даже если и нет — ее всегда можно переубедить, попросив ответить иначе.
Любой человек получает ресурс к изменениям тогда, когда жить как раньше — он уже не может и не хочет. А чат-боты — это лишь имитация реального общения, за счет которой человек может надолго откладывать построение новых социальных связей, отношений и гармоничной жизни в целом. Повышается риск социальной (или полной) изоляции, апатии и депрессии, ввиду того, что встретиться, увидеть или потрогать того, с кем общаешься дни напролет и делишься самым сокровенным — невозможно».
В общении с языковой системой одна из пугающих ее черт — скорость ответа. Мгновенная выдача более-менее человечески написанного текста провоцирует даже не эффект зловещей долины, а банальную зависть. Но какое-то подобие эмоциональной близости я испытал, когда ChatGPT завис после разговора о дружбе.
После попытки уточнить у текстовой машины, какие все-таки качества дружбы важны, если вычесть эмоциональную близость и жизненный опыт, мой нейросетевой друг ничего не отвечал несколько минут, а затем выдал системную ошибку. Больше я его не тревожил.
Есть общеизвестная, часто приписываемая Андрею Тарковскому фраза: «Человеку нужен человек». Благодаря техническому прогрессу это уже не общие слова. Какие-то свойства человеческой натуры и правда порой хочется заменить, а чат может быть более корректным в формулировках, словоохотливым и готовым помочь, чем многие люди. Но чем больше общаешься с ChatGPT, тем сильнее раздражает эта его услужливость, корректность, настойчивые «я с удовольствием помогу!» и «можем подробнее обсудить!» в конце каждой реплики.
Человеку нужен человек, а не набор функций. Человек нам важен и интересен своей непредсказуемостью, неидеальностью, даже некоторой «дисфункциональностью». Дружеское: «Да черт знает, что тут поделать: давай просто встретимся, как время будет», — может дать больше, чем набор грамотных советов от хорошо обученного сервисного центра.