Назад

Острый вопрос современности – сильный искусственный интеллект

thinking robot

Сильный искусственный интеллект

Вопрос сильного ИИ уже многие годы волнует людей не только из мира технологий. Вспомнить хотя бы фильмы и мемы про восстания машин. Напомним, что сильный ИИ (ОИИ – общий искусственный интеллект)(AGI) – гипотеза, согласно которой машины могут самостоятельно рассуждать, решать ранее неизвестные задачи. Идея звучит отлично только в том случае, если мы сможем контролировать мыслительные процессы такой машины. То есть кроме очевидных плюсов (повышения эффективности, автоматизации и инноваций), существуют не менее очевидные минусы (безработица, вопрос приватности и безопасности данных, этические вопросы и зависимость от технологий).

И казалось бы, научное сообщество пришло к решению. Если исследования продолжатся в таком же темпе, то спустя максимум 10 лет мы создадим сильный ИИ. И вряд ли мы сможем его контролировать. Поэтому темпы разработок надо сократить. Однако не все были полностью согласны с этим решением.

Драма в OpenAI

OpenAI – главная компания по исследованию ИИ по состоянию на 2023 год. Именно они разработали и обучили языковую модель нейросети, о которой мы уже писали ранее – GPT-4. Оказывается, к ноябрю 2023 управляющие лица компании так и не могли достичь компромисса по теме безопасности. Часть совета директоров считала, что разработки стоит практически поставить на паузу и заняться обеспечением безопасности. А именно освободившиеся силы направить на решение вопроса контроля модели (alignment). Главной целью они ставят максимально обезопасить себя как человечество независимо от силы технологий. Другие же были уверены, что до сильного ИИ у нас есть не один десяток лет, так что вопросом контроля можно заниматься не настолько плотно.

Конфликт оказался доступен общественности после увольнения исполнительного директора Сэма Альтмана советом директоров. Альтман считается одним из самых влиятельных лидеров отрасли. Сам CEO был на стороне продолжения исследований и разработки новых продуктов. Спустя несколько дней неутихающих обсуждений в Интернете и публичного письма от более чем 600 сотрудников компании, совет директоров был распущен, а Альтман возвращен в компанию.

Значение для пользователей

Взвешивая темпы инноваций и необходимость контроля, компании сталкиваются с вызовом достижения баланса между продвижением технологий и обеспечением безопасности человечества. Каждая компания самостоятельно решает, какой подход выбрать, однако нельзя исключать и мнение общества. Мы же, как пользователи продуктов OpenAI, наверняка можем рассчитывать на сокращение темпов разработки новых моделей. Более того, велика вероятность что и для текущих инструментов будут произведены изменения. Например, добавление большего количества фильтров на генерируемый контент.

Хороши выбранные подходы или нет – показать может только время. Нам же остается лишь решать для самих себя: нужен ли нам вообще сильный искусственный интеллект.


Самые важные новости из мира ИИ у нас в Телеграм-канале