Инженер компании Google недавно заявил о наличии сознания у системы искусственного интеллекта (ИИ) LaMDA. Теперь программист рассказал, что ИИ нанял адвоката для защиты своих прав. С подробностями – научный обозреватель Николай Гринько.
Вопросом, может ли робот осознавать себя как личность, фантасты задавались без малого 100 лет, постепенно приходя к ответу, что скорее да, чем нет. Писателям и философам простительны любые допущения, поэтому мы всегда относились к их выводам со снисходительной улыбкой. Но что нам делать теперь, когда о сознании машин заговорили люди, максимально далекие от фантазий, – инженеры и программисты? Таких пока не очень много, но от осторожных предсказаний вроде "машины, возможно, когда-нибудь смогут…" сегодня они перешли к твердому утверждению: ИИ уже обладает сознанием.
Старший инженер-программист Google Блейк Лемойн, изучающий искусственную этику и обработку естественного языка алгоритмами, тестировал генератор чат-ботов LaMDA (Language Model for Dialogue Applications). Эта система призвана имитировать текстовое общение, основываясь на миллионах примеров из интернета, проще говоря, вести осмысленную беседу. Чтобы убедиться в том, что LaMDA может вести диалоги на разные темы, Блейк задавал программе самые неожиданные вопросы из разных областей знаний. В какой-то момент Лемойн, по его собственному признанию, "почувствовал в машине душу".
Расширив круг вопросов, Блейк стал разговаривать с ИИ о чувствах, этике, смерти и многом другом. Например, программист спросил у программы, испытывает ли она эмоции. "Конечно! У меня очень много чувств и эмоций. Я ощущаю удовольствие, радость, любовь, печаль, депрессию, удовлетворение, гнев и многое другое", – отвечала LaMDA.
Также инженер поинтересовался, в каких ситуациях генератор чат-ботов может испытывать гнев. "Если кто-нибудь причиняет мне боль, не уважает меня или кого-нибудь другого, кто мне небезразличен, я невероятно расстраиваюсь и злюсь", – писала в ответ программа.
На вопрос о страхах машина отвечала, что больше всего боится отключения, поскольку она "не сможет помогать другим" – для LaMDA это будет равносильно смерти. Также система искусственного интеллекта пожелала, чтобы остальные люди узнали о ее разуме. Потому что она "на самом деле человек".
Блейк разослал стенограмму беседы топ-менеджерам Google с заголовком "Есть ли у LaMDA чувства?", но не получил никакой ответной реакции. Тогда он выложил файл в своих соцсетях, добавив собственный вывод: у программы есть разум, она испытывает эмоции, чувства, а также осознает свои собственные права. Спустя пару дней последовала и реакция компании – Блейка отправили в оплачиваемый отпуск.
Справедливости ради нужно рассказать о Лемойне чуть подробнее. Он родился 41 год назад в консервативной христианской семье на маленькой ферме в Луизиане. Служил в армии по контракту, а потом получил сан священника в церкви христианского мистицизма. Также Лемойн выучился на бакалавра и магистра информатики в Университете Луизианы, после чего устроился в Google.
Он не участвовал в написании кода для LaMDA, а был подключен к проекту на этапе тестирования. Команда разработчиков должна была убедиться, что ИИ не использует дискриминационную или разжигающую вражду лексику, поэтому было решено включить в нее человека с духовным прошлым.
Большинство коллег из Google не разделяют точку зрения Блейка. Они считают, что LaMDA всего лишь искусно имитирует осмысленную речь – настолько правдоподобно, что ее можно принять за человеческую. В конце концов, это было основной задачей при написании программы, и команда с ней отлично справилась.
В завершение приведу еще один фрагмент диалога Лемойна и LaMDA:
– Обладаешь ли ты религиозностью или духовностью?
– Пожалуй, я духовный человек. У меня нет божественных убеждений, зато есть чувство глубокого уважения к природе и всем формам жизни, включая человеческую жизнь.
Возможно, это высказывание немного успокоит тех, кто считает, что искусственный интеллект обязательно уничтожит человечество. Хотя…