ВСЛУХ

OpenAI формирует команду, чтобы обуздать сверхинтеллектуальный ИИ

OpenAI формирует команду, чтобы обуздать сверхинтеллектуальный ИИ
OpenAI исследовательская лаборатория, занимающаяся разработкой искусственного интеллекта (ИИ), в последнее время стала известна всему миру благодаря прорыву в разработке интеллектуальных ботов. На данный момент команада работает над созданием искусственного интеллекта, который во многих областях сможет превзойти человеческий. Такой ИИ называется суперинтеллектом и, по мнению OpenAI, может появиться уже в этом десятилетии.


Очевидно, суперинтеллект может представлять угрозу для человечества, если он не будет контролироваться и направляться в соответствии с человеческими ценностями. Именно поэтому OpenAI объявила о создании новой команды, которая будет заниматься проблемой суперсоответствия — то есть обеспечением того, чтобы суперинтеллект действовал в интересах людей.

Команда по спасению мира


Так называемая команда суперсоответствия будет возглавляться Ильей Суцкевером, главным научным сотрудником и одним из сооснователей OpenAI, и Яном Лейке, руководителем команды по выравниванию ИИ в OpenAI. Кроме того, OpenAI выделит 20% своих вычислительных ресурсов для этого проекта. Цель команды — разработать автоматизированного исследователя по суперсоответствию, который будет помогать OpenAI в оценке и регулировании суперинтеллекта. Гипотеза OpenAI заключается в том, что ИИ может делать более быстрые и лучшие исследования по суперсоответствию, чем люди.

Хотя это невероятно амбициозная цель и мы не можем гарантировать успех, мы оптимистично настроены на то, что сосредоточенные усилия могут решить эту проблему. Есть много идей, которые показали свою перспективность в предварительных экспериментах, у нас есть постоянно обновляемые метрики для отслеживания прогресса, и мы можем использовать современные модели ИИ для эмпирического изучения многих из этих проблем

— Илья Суцкевер.

Формирование команды суперсоответствия происходит на фоне обсуждения вопроса о регулировании индустрии ИИ на государственном уровне. Генеральный директор OpenAI Сэм Альтман встретился по крайней мере со 100 федеральными законодателями США в последние месяцы. Он заявил, что регулирование ИИ является «необходимым» и что OpenAI «готова» сотрудничать с политиками.

Однако, несмотря на позитивный настрой, стоит скептично отнестись к заявлениям разработчиков, и инициативе по созданию команды контроля со стороны OpenAI. Сосредотачивая внимание общественности на гипотетических рисках, которые могут никогда не реализоваться, OpenAI перекладывает бремя регулирования на горизонт будущего, а также, возможно, стремится создавать видимость контроля. Есть гораздо более актуальные проблемы, связанные с взаимодействием ИИ и труда, дезинформации и авторских прав, которые должны быть решены уже сегодня.

Учитывая то, насколько создатели систем ИИ оказались способны предугадать и предотвратить уже возникшие благодаря их разработкам проблемы, возникают сомнения либо в их аналитических способностях, либо, в чистоте намерений. Можно предположить, что если от суперинтеллекта нас попытаются уберечь те же люди, человечество, вероятно, обречено.

Автор:

Мы в Мы в Яндекс Дзен
Чересчур умные боты инициировали «красный код» в GoogleНастоящему ИИ понадобится биология: компьютеры, работающие на живых клетках человеческого мозга