
OpenAI формирует команду, чтобы обуздать сверхинтеллектуальный ИИ
OpenAI исследовательская лаборатория, занимающаяся разработкой искусственного интеллекта (ИИ), в последнее время стала известна всему миру благодаря прорыву в разработке интеллектуальных ботов. На данный момент команада работает над созданием искусственного интеллекта, который во многих областях сможет превзойти человеческий. Такой ИИ называется суперинтеллектом и, по мнению OpenAI, может появиться уже в этом десятилетии.
Очевидно, суперинтеллект может представлять угрозу для человечества, если он не будет контролироваться и направляться в соответствии с человеческими ценностями. Именно поэтому OpenAI объявила о создании новой команды, которая будет заниматься проблемой суперсоответствия — то есть обеспечением того, чтобы суперинтеллект действовал в интересах людей.
Так называемая команда суперсоответствия будет возглавляться Ильей Суцкевером, главным научным сотрудником и одним из сооснователей OpenAI, и Яном Лейке, руководителем команды по выравниванию ИИ в OpenAI. Кроме того, OpenAI выделит 20% своих вычислительных ресурсов для этого проекта. Цель команды — разработать автоматизированного исследователя по суперсоответствию, который будет помогать OpenAI в оценке и регулировании суперинтеллекта. Гипотеза OpenAI заключается в том, что ИИ может делать более быстрые и лучшие исследования по суперсоответствию, чем люди.
— Илья Суцкевер.
Формирование команды суперсоответствия происходит на фоне обсуждения вопроса о регулировании индустрии ИИ на государственном уровне. Генеральный директор OpenAI Сэм Альтман встретился по крайней мере со 100 федеральными законодателями США в последние месяцы. Он заявил, что регулирование ИИ является «необходимым» и что OpenAI «готова» сотрудничать с политиками.
Однако, несмотря на позитивный настрой, стоит скептично отнестись к заявлениям разработчиков, и инициативе по созданию команды контроля со стороны OpenAI. Сосредотачивая внимание общественности на гипотетических рисках, которые могут никогда не реализоваться, OpenAI перекладывает бремя регулирования на горизонт будущего, а также, возможно, стремится создавать видимость контроля. Есть гораздо более актуальные проблемы, связанные с взаимодействием ИИ и труда, дезинформации и авторских прав, которые должны быть решены уже сегодня.
Учитывая то, насколько создатели систем ИИ оказались способны предугадать и предотвратить уже возникшие благодаря их разработкам проблемы, возникают сомнения либо в их аналитических способностях, либо, в чистоте намерений. Можно предположить, что если от суперинтеллекта нас попытаются уберечь те же люди, человечество, вероятно, обречено.
Очевидно, суперинтеллект может представлять угрозу для человечества, если он не будет контролироваться и направляться в соответствии с человеческими ценностями. Именно поэтому OpenAI объявила о создании новой команды, которая будет заниматься проблемой суперсоответствия — то есть обеспечением того, чтобы суперинтеллект действовал в интересах людей.
Команда по спасению мира
Так называемая команда суперсоответствия будет возглавляться Ильей Суцкевером, главным научным сотрудником и одним из сооснователей OpenAI, и Яном Лейке, руководителем команды по выравниванию ИИ в OpenAI. Кроме того, OpenAI выделит 20% своих вычислительных ресурсов для этого проекта. Цель команды — разработать автоматизированного исследователя по суперсоответствию, который будет помогать OpenAI в оценке и регулировании суперинтеллекта. Гипотеза OpenAI заключается в том, что ИИ может делать более быстрые и лучшие исследования по суперсоответствию, чем люди.
Хотя это невероятно амбициозная цель и мы не можем гарантировать успех, мы оптимистично настроены на то, что сосредоточенные усилия могут решить эту проблему. Есть много идей, которые показали свою перспективность в предварительных экспериментах, у нас есть постоянно обновляемые метрики для отслеживания прогресса, и мы можем использовать современные модели ИИ для эмпирического изучения многих из этих проблем
— Илья Суцкевер.
Формирование команды суперсоответствия происходит на фоне обсуждения вопроса о регулировании индустрии ИИ на государственном уровне. Генеральный директор OpenAI Сэм Альтман встретился по крайней мере со 100 федеральными законодателями США в последние месяцы. Он заявил, что регулирование ИИ является «необходимым» и что OpenAI «готова» сотрудничать с политиками.
Однако, несмотря на позитивный настрой, стоит скептично отнестись к заявлениям разработчиков, и инициативе по созданию команды контроля со стороны OpenAI. Сосредотачивая внимание общественности на гипотетических рисках, которые могут никогда не реализоваться, OpenAI перекладывает бремя регулирования на горизонт будущего, а также, возможно, стремится создавать видимость контроля. Есть гораздо более актуальные проблемы, связанные с взаимодействием ИИ и труда, дезинформации и авторских прав, которые должны быть решены уже сегодня.
Учитывая то, насколько создатели систем ИИ оказались способны предугадать и предотвратить уже возникшие благодаря их разработкам проблемы, возникают сомнения либо в их аналитических способностях, либо, в чистоте намерений. Можно предположить, что если от суперинтеллекта нас попытаются уберечь те же люди, человечество, вероятно, обречено.
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас

32 удивительных подарка за последние 20 лет: ученые пытаются понять, за что косатки «балуют» людей
Природная доброта? Любопытство? Желание выйти на контакт?...

Найдено идеальное место для жизни на Марсе
По словам ученых, оно похоже… на нашу Сибирь....

Уникальная находка в Нидерландах: археологи обнаружили римский лагерь далеко за пределами Империи
Как лидар и искусственный интеллект нашли объект-«невидимку» II века....

Тайна разгадана: стало известно, почему большинство кошек предпочитают спать строго на одном боку
Оказалось, что это древний защитный механизм, которому миллионы лет....

Эксперты обнаружили существ, переживших прямой удар астероида, который уничтожил динозавров
Почему конец света — это вовсе не повод, чтобы вымирать?...

«Вертолетная» конструкция да Винчи может сделать беспилотники тише, быстрее и даже дешевле
Ученые поражены, насколько разработка Леонардо опередила время....

Ученые хотят создать хранилище микробов, чтобы те… не вымерли
Звучит кошмарно, но на самом деле от этого зависит судьба всего человечества....