В мире существует опасность бесконтрольного развития ИИ, поскольку нейросети сейчас законодательно никто не регулирует. Об этом пишет "Газета.ру" со ссылкой на эксперта в сфере искусственного интеллекта и аналитика данных в компании стратегического консалтинга в США Александра Малахова.
Говоря об опасности ИИ, эксперт привел в пример знаменитый ChatGPT, который несет в себе бесконтрольность распространяемой информации, особенно в таких опасных категориях, как запрещенные вещества.
Раньше с источником информации можно было бороться понятными методами, однако с появлением искусственного интеллекта все стало намного сложнее, указал Малахов. В ChatGPT сначала собирается текстовая база знаний со всего интернета. На этом фоне эксперт задался вопросом, кто и как контролирует выборку данных знаний.
"Второй шаг – это процесс обучения ИИ. Он занимает огромное количество ресурсов (речь идет о миллионах долларов) и времени. На этом этапе вся информация трансформируется в подобие человеческого мозга на уровне чисел: создается нейронная сеть, совокупность уравнений, которые содержат в себе преобразованные знания обо всех текстах", – сказал Малахов.
При этом ИИ не является какой-либо базой данных, из которой можно что-то удалить, добавил эксперт, указав на невозможность точно определить, на основе каких изначальных знаний нейросеть основывает свои суждения. Со слов Малахова, этот факт является главной опасностью, которые озвучивали ведущие участники рынка, в том числе Илон Маск.
Кроме того, продолжил эксперт, опасность заключается в применении обученной модели. На основе вводных данных пользователи могут получить ответ от ИИ, однако человек не способен контролировать то, как нейросеть генерирует его. Единственное, что можно сделать, – это модифицировать вопрос и изменить ответ, указал Малахов.
Вместе с тем он напомнил о том, как компания Маска – Х – представила в открытом доступе модель Grok, которая во многом превышает количество знаний от передовой ИИ-модели.
Малахов также прокомментировал резолюцию Генассамблеи ООН об ИИ. Он напомнил, что инициативу поддержали 193 государства, которые хотели бы предотвратить риск того, чтобы нейросеть управляла людьми. Эксперт назвал резолюцию важным первым шагом в противодействии бесконтрольному ИИ. Подобное подтолкнет большинство стран создать необходимые правовые документы, подчеркнул аналитик.
Ранее в СМИ писали, что американская компания OpenAI может выпустить обновленную версию чат-бота ChatGPT уже летом 2024 года. Ряд корпоративных клиентов уже получил демоверсию ChatGPT-5, а полноценный запуск чат-бота планируется в середине года, отмечали журналисты.