Письмо Маска и Возняка об опасностях ИИ назвали...

Письмо Маска и Возняка об опасностях ИИ назвали попыткой «остановить гонку вооружений»

Письмо Маска и Возняка об опасностях ИИ назвали попыткой «остановить гонку вооружений»

Письмо главы SpaceX Илона Маска и соучредителя Apple Стива Возняка с призывом отказаться на полгода от развития сложным систем искусственного интеллекта связано со стремлением приостановить борьбу компаний и стран за доминирование в области ИИ. Об этом «Газете.Ru» рассказал главный аналитик Центра прикладных систем искусственного интеллекта МФТИ Игорь Пивоваров.

«Эти большие модели с ИИ разрабатываются в большой спешке и конкуренции. Письмо — попытка остановить подобную гонку вооружений ИИ хотя бы на полгода ради общего блага. Такое «противостояние» в развитии ИИ уже прямо сейчас разворачивается между несколькими странами», — отметил он.

По словам Пивоварова, в связи с этим растут риски того, что системы на основе ИИ получат такие возможности, которые будут не в силах объяснить даже сами разработчики. Аналитик поддержал авторов письма и их требования.

«Поддерживаю эту историю, мне она кажется разумной. За последнее время модели искусственного интеллекта становятся все больше, а мы все меньше понимаем, что происходит внутри. Модель выдала определенный результат, а мы банально не можем осознать, как она это сделала», — указал Пивоваров.

Он также добавил, что при разработках больших моделей на основе ИИ существует три главных риска: массовая потеря рабочих мест, усиление социального неравенства и «сильный ИИ», который может стать «эволюционным конкурентом человека».

«Уже сегодня модели класса GPT-4 способны обучить примерно пять компаний в мире. Даже далеко не все страны имеют такие возможности, как эти компании. И когда такие модели начнут активно применяться, то выгода от их деятельности грозит огромным социальным напряжением — единицы компаний и стран получат колоссальное преимущество», — заключил Пивоваров.

Ранее Илон Маск, Стив Возняк, филантроп Эндрю Янг и еще более тысячи исследователей ИИ призвали немедленно приостановить обучение систем на основе ИИ, «более мощных, чем GPT-4» от OpenAI.