OpenAI формирует команду, чтобы обуздать сверхинтеллектуальный ИИ
OpenAI исследовательская лаборатория, занимающаяся разработкой искусственного интеллекта (ИИ), в последнее время стала известна всему миру благодаря прорыву в разработке интеллектуальных ботов. На данный момент команада работает над созданием искусственного интеллекта, который во многих областях сможет превзойти человеческий. Такой ИИ называется суперинтеллектом и, по мнению OpenAI, может появиться уже в этом десятилетии.
Очевидно, суперинтеллект может представлять угрозу для человечества, если он не будет контролироваться и направляться в соответствии с человеческими ценностями. Именно поэтому OpenAI объявила о создании новой команды, которая будет заниматься проблемой суперсоответствия — то есть обеспечением того, чтобы суперинтеллект действовал в интересах людей.
Так называемая команда суперсоответствия будет возглавляться Ильей Суцкевером, главным научным сотрудником и одним из сооснователей OpenAI, и Яном Лейке, руководителем команды по выравниванию ИИ в OpenAI. Кроме того, OpenAI выделит 20% своих вычислительных ресурсов для этого проекта. Цель команды — разработать автоматизированного исследователя по суперсоответствию, который будет помогать OpenAI в оценке и регулировании суперинтеллекта. Гипотеза OpenAI заключается в том, что ИИ может делать более быстрые и лучшие исследования по суперсоответствию, чем люди.
— Илья Суцкевер.
Формирование команды суперсоответствия происходит на фоне обсуждения вопроса о регулировании индустрии ИИ на государственном уровне. Генеральный директор OpenAI Сэм Альтман встретился по крайней мере со 100 федеральными законодателями США в последние месяцы. Он заявил, что регулирование ИИ является «необходимым» и что OpenAI «готова» сотрудничать с политиками.
Однако, несмотря на позитивный настрой, стоит скептично отнестись к заявлениям разработчиков, и инициативе по созданию команды контроля со стороны OpenAI. Сосредотачивая внимание общественности на гипотетических рисках, которые могут никогда не реализоваться, OpenAI перекладывает бремя регулирования на горизонт будущего, а также, возможно, стремится создавать видимость контроля. Есть гораздо более актуальные проблемы, связанные с взаимодействием ИИ и труда, дезинформации и авторских прав, которые должны быть решены уже сегодня.
Учитывая то, насколько создатели систем ИИ оказались способны предугадать и предотвратить уже возникшие благодаря их разработкам проблемы, возникают сомнения либо в их аналитических способностях, либо, в чистоте намерений. Можно предположить, что если от суперинтеллекта нас попытаются уберечь те же люди, человечество, вероятно, обречено.
Очевидно, суперинтеллект может представлять угрозу для человечества, если он не будет контролироваться и направляться в соответствии с человеческими ценностями. Именно поэтому OpenAI объявила о создании новой команды, которая будет заниматься проблемой суперсоответствия — то есть обеспечением того, чтобы суперинтеллект действовал в интересах людей.
Команда по спасению мира
Так называемая команда суперсоответствия будет возглавляться Ильей Суцкевером, главным научным сотрудником и одним из сооснователей OpenAI, и Яном Лейке, руководителем команды по выравниванию ИИ в OpenAI. Кроме того, OpenAI выделит 20% своих вычислительных ресурсов для этого проекта. Цель команды — разработать автоматизированного исследователя по суперсоответствию, который будет помогать OpenAI в оценке и регулировании суперинтеллекта. Гипотеза OpenAI заключается в том, что ИИ может делать более быстрые и лучшие исследования по суперсоответствию, чем люди.
Хотя это невероятно амбициозная цель и мы не можем гарантировать успех, мы оптимистично настроены на то, что сосредоточенные усилия могут решить эту проблему. Есть много идей, которые показали свою перспективность в предварительных экспериментах, у нас есть постоянно обновляемые метрики для отслеживания прогресса, и мы можем использовать современные модели ИИ для эмпирического изучения многих из этих проблем
— Илья Суцкевер.
Формирование команды суперсоответствия происходит на фоне обсуждения вопроса о регулировании индустрии ИИ на государственном уровне. Генеральный директор OpenAI Сэм Альтман встретился по крайней мере со 100 федеральными законодателями США в последние месяцы. Он заявил, что регулирование ИИ является «необходимым» и что OpenAI «готова» сотрудничать с политиками.
Однако, несмотря на позитивный настрой, стоит скептично отнестись к заявлениям разработчиков, и инициативе по созданию команды контроля со стороны OpenAI. Сосредотачивая внимание общественности на гипотетических рисках, которые могут никогда не реализоваться, OpenAI перекладывает бремя регулирования на горизонт будущего, а также, возможно, стремится создавать видимость контроля. Есть гораздо более актуальные проблемы, связанные с взаимодействием ИИ и труда, дезинформации и авторских прав, которые должны быть решены уже сегодня.
Учитывая то, насколько создатели систем ИИ оказались способны предугадать и предотвратить уже возникшие благодаря их разработкам проблемы, возникают сомнения либо в их аналитических способностях, либо, в чистоте намерений. Можно предположить, что если от суперинтеллекта нас попытаются уберечь те же люди, человечество, вероятно, обречено.
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас
Секрет 14-го моря России: куда оно пропало и почему о нем снова заговорили?
Эксперты напоминают: Кроме Печорского, у России есть и 15-е «забытое» море, и оно тоже возвращается на карты...
Главная тайна Черного моря разгадана: Ученые рассказали, почему там на дне очень прозрачная пресная вода
Чтобы найти ответ, исследователям пришлось заглянуть на 8 тысяч лет назад...
Золотой колокольчик из Эрмитажа: почему Владимир Путин запретил выставлять этот артефакт за границей?
Сколько сокровищ потеряла Россия в последнее время, пока не поняла, что договоры с Западом не стоят даже бумаги, на которой написаны?...
Мегамонстры с 7-го этажа: в древних океанах шла такая война хищников, где у современных косаток не было бы ни единого шанса
Ученые рассказали, куда исчезли «боги» мезозойских морей и почему сейчас их существование было бы невозможно...
Мощнее леса в десятки раз: в ЮАР нашли «живые камни», которые выкачивают CO₂ с бешеной скоростью
Микробиалиты могли бы спасти Землю от потепления, но у этих «каменных насосов» есть один нюанс...
3500-летние рисунки на камнях российского острова Вайгач грозят переписать древнюю историю Арктики
Ученые рассказали, кем были мореходы из забытой цивилизации Русского Севера...
Грядет научный прорыв: Зачем в последние годы ученые по всему миру создают очень странные компьютеры?
Новые аппараты… не просто живые: они стирают различия между ЭВМ и человеческим мозгом...
Ученые рассказали, какой фрукт подчинил себе весь Китай
Как продукт с очень специфическим запахом стал управлять дипломатией и экономикой Юго-Восточной Азии?...
20-летнее наблюдение со спутников «сломало климат»: Теперь ученым придется полностью менять все теории
Зато теперь понятно, почему в двух близких городах могут быть... разные времена года...
Она нам больше не праматерь! Почему легендарную Люси могут «изгнать» из числа наших предков?
Ведущие антропологи мира схлестнулись в настоящей войне. Кто же окажется победителем?...
Американский авиалайнер резко рухнул на 7000 метров: эксперты считают виновником сбоя космические лучи из глубин Галактики
В этот раз катастрофа не произошла, но под угрозой электроника самолетов, космических аппаратов и даже автомобилей. Почему так происходит?...
Забытые истории: где искать потерянные русские города?
Последний языческий город, почему Тмутаракань — головная боль археологов и что не так со Старой Рязанью...