События сегодня

Генеральный директор Inflection.ai Мустафа Сулейман объясняет, как поймать «приближающуюся волну» технологий

Генеральный директор Inflection.ai Мустафа Сулейман объясняет, как поймать «приближающуюся волну» технологий

Фото: AP Illustration/Питер Хэмлин

Если вы смотрели телепередачу с участием суперзвезды баскетбола Леброна Джеймса в течение последних 20 лет, вы, вероятно, слышали заявление диктора: «Вы не можете остановить его, вы можете только надеяться сдержать его». Это мнение отражает отношение генерального директора Inflection.ai Мустафы Сулеймана к искусственному интеллекту — технологии, которую он помогал продвигать как соучредитель DeepMind, которую Google приобрела в 2014 году.

Покинув Google в прошлом году, Сулейман вместе с соучредителем LinkedIn Ридом Хоффманом основал Inflection, пытаясь создать искусственный интеллект, или ИИ, который не будет склоняться к расистскому, сексистскому или агрессивному поведению. Первым доказательством Inflection является помощник на базе искусственного интеллекта по имени «Пи», который рекламируется как более безопасная альтернатива более известным чат-ботам, таким как ChatGPT от Open AI и Bard от Google.

Теперь Сулейман стал соавтором книги «Грядущая волна», посвященной перспективам ИИ и необходимости ограничить его потенциальные опасности. Он подробно изложил свои идеи в недавнем интервью Associated Press.

Вопрос: Как нам следует думать об искусственном интеллекте на данном этапе?



Ответ: Я искренне верю, что мы приближаемся к эпохе радикального изобилия. Мы собираемся превратить суть того, что делает нас способными, — наш интеллект — в программу, которая может стать дешевле, проще в использовании и более широко доступна каждому. В результате все жители планеты получат в целом равный доступ к интеллекту, который сделает нас всех умнее и продуктивнее.

Вопрос: Нет ли также риска, что часть человеческого мозга начнет атрофироваться, и мы все вместе станем тупее?

Ответ: Я думаю, что мы развиваемся в противоположном направлении. Мы добавляем массу новых знаний в массив глобальных знаний. И это делает каждого в среднем намного умнее и проницательнее. Эти ИИ будут улавливать и развивать ваши слабости. Они укрепят ваши сильные стороны. Мы собираемся развиваться с помощью этих новых дополнений. Мы собираемся изобрести новую культуру, новые привычки и новые стили адаптации. Если вы посмотрите на среднестатистического американца сегодня, то станет удивительно, насколько он или она отличались бы от среднестатистического американца столетие назад.

Вопрос: В вашей книге много говорится о необходимости сдерживания ИИ, но как нам это сделать?

Ответ: Мы хотим попытаться максимизировать пользу и минимизировать вред. Я думаю, что мы уже много раз преодолевали эту проблему. Посмотрите на безопасность авиакомпаний. Попадать в трубу на скорости 1000 миль в час на высоте 40 000 футов невероятно безопасно. Мы добились огромного прогресса в каждой из этих новых технологий. Я думаю, что нам следует гораздо больше вдохновляться и воодушевляться достигнутым нами прогрессом и меньше зацикливаться на тревоге, что все пойдет не так. Это будет непросто, во многих отношениях это будет странно и страшно, но мы делали это раньше и можем сделать это снова.

Вопрос: Стоит ли нам беспокоиться о том, что самые популярные формы генеративного искусственного интеллекта до сих пор контролируются крупными технологическими компаниями, стремящимися к все более высокой прибыли?

Ответ: Коммерческое давление будет всегда, поэтому нам придется его обходить. Впервые за многие годы мы видим, как правительства действуют так быстро и проявляют такую ​​инициативу. Я также думаю, что коммерческий приз будет огромным. Мы должны извлечь уроки из эпохи социальных сетей и действовать быстро, когда начинаем видеть признаки потенциального вреда.

Вопрос: Развился ли homo sapiens в так называемого «homo technologicus»?

Ответ: Мы всегда были такими, с тех пор как взяли в руки топор или дубинку, изобрели очки или сожгли дерево. Мы — особый вид, потому что используем инструменты. Мы должны думать об этих новых ИИ как о наборе инструментов, которые мы контролируем, которые подотчетны нам, и которые мы можем установить границы, которые мы можем фундаментально сдерживать. Только так они останутся в безопасности и продолжат служить нам и виду.

Вопрос: Стоит ли нам беспокоиться, что ИИ приведет к гибели человечества?

Ответ: Меня беспокоит множество вещей, но главное, на чем я сосредоточен, — это краткосрочный вред, потому что у нас есть шанс действительно повлиять на них и исправить их. Я думаю, слишком легко представить, что может произойти через 50 лет. Я думаю, что многие люди увлеклись идеями суперинтеллекта. Они действительно думают о вещах, которые могут или не могут произойти и которые находятся далеко за пределами моего временного горизонта прогнозирования, особенно в эпоху изменения климата.

Информация для Вас была полезна?
0
0
0
0
0
0
0

Похожие статьи

Кнопка «Наверх»