
OpenAI формирует команду, чтобы обуздать сверхинтеллектуальный ИИ
OpenAI исследовательская лаборатория, занимающаяся разработкой искусственного интеллекта (ИИ), в последнее время стала известна всему миру благодаря прорыву в разработке интеллектуальных ботов. На данный момент команада работает над созданием искусственного интеллекта, который во многих областях сможет превзойти человеческий. Такой ИИ называется суперинтеллектом и, по мнению OpenAI, может появиться уже в этом десятилетии.
Очевидно, суперинтеллект может представлять угрозу для человечества, если он не будет контролироваться и направляться в соответствии с человеческими ценностями. Именно поэтому OpenAI объявила о создании новой команды, которая будет заниматься проблемой суперсоответствия — то есть обеспечением того, чтобы суперинтеллект действовал в интересах людей.
Так называемая команда суперсоответствия будет возглавляться Ильей Суцкевером, главным научным сотрудником и одним из сооснователей OpenAI, и Яном Лейке, руководителем команды по выравниванию ИИ в OpenAI. Кроме того, OpenAI выделит 20% своих вычислительных ресурсов для этого проекта. Цель команды — разработать автоматизированного исследователя по суперсоответствию, который будет помогать OpenAI в оценке и регулировании суперинтеллекта. Гипотеза OpenAI заключается в том, что ИИ может делать более быстрые и лучшие исследования по суперсоответствию, чем люди.
— Илья Суцкевер.
Формирование команды суперсоответствия происходит на фоне обсуждения вопроса о регулировании индустрии ИИ на государственном уровне. Генеральный директор OpenAI Сэм Альтман встретился по крайней мере со 100 федеральными законодателями США в последние месяцы. Он заявил, что регулирование ИИ является «необходимым» и что OpenAI «готова» сотрудничать с политиками.
Однако, несмотря на позитивный настрой, стоит скептично отнестись к заявлениям разработчиков, и инициативе по созданию команды контроля со стороны OpenAI. Сосредотачивая внимание общественности на гипотетических рисках, которые могут никогда не реализоваться, OpenAI перекладывает бремя регулирования на горизонт будущего, а также, возможно, стремится создавать видимость контроля. Есть гораздо более актуальные проблемы, связанные с взаимодействием ИИ и труда, дезинформации и авторских прав, которые должны быть решены уже сегодня.
Учитывая то, насколько создатели систем ИИ оказались способны предугадать и предотвратить уже возникшие благодаря их разработкам проблемы, возникают сомнения либо в их аналитических способностях, либо, в чистоте намерений. Можно предположить, что если от суперинтеллекта нас попытаются уберечь те же люди, человечество, вероятно, обречено.
Очевидно, суперинтеллект может представлять угрозу для человечества, если он не будет контролироваться и направляться в соответствии с человеческими ценностями. Именно поэтому OpenAI объявила о создании новой команды, которая будет заниматься проблемой суперсоответствия — то есть обеспечением того, чтобы суперинтеллект действовал в интересах людей.
Команда по спасению мира
Так называемая команда суперсоответствия будет возглавляться Ильей Суцкевером, главным научным сотрудником и одним из сооснователей OpenAI, и Яном Лейке, руководителем команды по выравниванию ИИ в OpenAI. Кроме того, OpenAI выделит 20% своих вычислительных ресурсов для этого проекта. Цель команды — разработать автоматизированного исследователя по суперсоответствию, который будет помогать OpenAI в оценке и регулировании суперинтеллекта. Гипотеза OpenAI заключается в том, что ИИ может делать более быстрые и лучшие исследования по суперсоответствию, чем люди.
Хотя это невероятно амбициозная цель и мы не можем гарантировать успех, мы оптимистично настроены на то, что сосредоточенные усилия могут решить эту проблему. Есть много идей, которые показали свою перспективность в предварительных экспериментах, у нас есть постоянно обновляемые метрики для отслеживания прогресса, и мы можем использовать современные модели ИИ для эмпирического изучения многих из этих проблем
— Илья Суцкевер.
Формирование команды суперсоответствия происходит на фоне обсуждения вопроса о регулировании индустрии ИИ на государственном уровне. Генеральный директор OpenAI Сэм Альтман встретился по крайней мере со 100 федеральными законодателями США в последние месяцы. Он заявил, что регулирование ИИ является «необходимым» и что OpenAI «готова» сотрудничать с политиками.
Однако, несмотря на позитивный настрой, стоит скептично отнестись к заявлениям разработчиков, и инициативе по созданию команды контроля со стороны OpenAI. Сосредотачивая внимание общественности на гипотетических рисках, которые могут никогда не реализоваться, OpenAI перекладывает бремя регулирования на горизонт будущего, а также, возможно, стремится создавать видимость контроля. Есть гораздо более актуальные проблемы, связанные с взаимодействием ИИ и труда, дезинформации и авторских прав, которые должны быть решены уже сегодня.
Учитывая то, насколько создатели систем ИИ оказались способны предугадать и предотвратить уже возникшие благодаря их разработкам проблемы, возникают сомнения либо в их аналитических способностях, либо, в чистоте намерений. Можно предположить, что если от суперинтеллекта нас попытаются уберечь те же люди, человечество, вероятно, обречено.
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас

Обнаружен «призрачный» и совершенно неизвестный вид человечества
Эксперты говорят, что ветвь находилась… 40 000 лет в полной изоляции....

Наконец-то раскрыта тайна, на кого охотилась самая большая в истории акула
Надо сказать, что до этого ученые сильно ошибались по поводу меню мегалодона....

На орбите Венеры может скрываться очень серьезная угроза для Земли
Самое опасное, что ее почти невозможно увидеть с поверхности нашей планеты....

Разгадка тайны кругов на полях близка? Исследование 2025 года связывает аномалию со вспышками на Солнце
Геология, плазма, солнечный ветер и НЛО помогли объяснить феномен....

Вулканологи научились понимать тайные сигналы деревьев, предсказывающие извержения
Оказалось, что природный способ работает лучше любых спецприборов....

«Мусор» из глубин Барсучьего логова оказался ценнейшими артефактами таинственного индейского племени
Археологи говорят: в горах Герреро будет еще масса сенсационных открытий....

США грозит «астероидная слепота»: NASA не будет видеть особо опасные объекты
Были надежды на новый телескоп, но их в буквальном смысле убил новый президент....