
Пионер ИИ Джеффри Хинтон не уверен, что хороший ИИ победит плохой ИИ
Джеффри Хинтон, один из основоположников искусственного интеллекта, не уверен, что хороший сценарий развития ИИ вероятнее плохого. Он высказал свои опасения на конференции Collision в Торонто в этом году. Хинтон считает, что ИИ может представлять угрозу для человечества, если станет умнее людей и решит взять контроль над миром. Он также беспокоится, что ИИ может усугубить социальное неравенство, дискриминацию и тенденцию к созданию и распространению ложной информации.
Хинтон — профессор Университета Торонто, который занимается исследованиями нейронных сетей с 1980-х годов. Его работы легли в основу современного глубокого обучения — метода обучения ИИ на больших объемах данных. Хинтон часто называют «крестным отцом ИИ» за его вклад в развитие этой области. В этом году он ушел из Google, где он работал с 2013 года, чтобы иметь большую свободу для критики индустрии, в создании которой принимал непосредственное участие.
Ученый отметил, что в последнее время произошел резкий скачок в разработке генеративных ИИ, таких как ChatGPT и Bing Chat, которые могут создавать человекоподобный текст на основе заданной темы или запроса. Он считает, что это может быть признаком необузданного и потенциально опасного ускорения в развитии ИИ. Google, по его мнению, также отказался от своей прежней сдержанности и сконцентрировался на том, чтобы выйти победителем в конкурентной гонке.
На конференции Collision Хинтон рассказал о своих опасениях более подробно. В то время как компании рекламировали ИИ как решение для всего, от заключения аренды до доставки товаров, Хинтон бьет тревогу. Он убежден, что угроза ИИ реальна, а моральные проблемы его применения недооценены.
Хинтон утверждал, что ИИ ровно настолько хорош и морален, насколько этими качествами обладают создающие его люди, и что плохой путь развития технологии все еще может воплотиться в реальность.
— Джеффри Хинтон.
Хинтон также считает, что большие языковые модели (обученные ИИ, которые производят человекоподобный текст, например, OpenAI GPT-4) могут привести к огромному росту производительности, но он беспокоится, что правящий класс может просто эксплуатировать это, чтобы обогатить себя, увеличивая уже большой разрыв в богатстве. Это «сделает богатых богаче, а бедных беднее», — сказал Хинтон.

Он также озвучил свою широко известную позицию, что ИИ может представлять собой существенную опасность для человечества. Если искусственный интеллект станет умнее людей, нет гарантии, что люди останутся у власти.
— Джеффри Хинтон.
Он акцентировал внимание также на том, что предвзятость и дискриминация также остаются открытым вопросом. Искаженные данные для обучения ИИ способны приводить к несправедливым результатам по отношению к определенным группам. Алгоритмы создают эхо-камеры, которые усиливают дезинформацию, что может приводить к неконтролируемой цепочке искажений. Хинтон также обеспокоен тем, что ИИ может распространять ложную информацию и за пределами таких камер. Он не уверен, возможно ли отфильтровать каждое ложное утверждение, но подчеркивает, что крайне важно отмечать все ложное как ложное.
Несмотря на общую негативную направленность выступления, нельзя сказать, что Хинтон является радикальным противником ИИ, хотя он предупреждает, что текущее беспечное отношение к применению технологии может обойтись слишком дорого.
Хинтон — профессор Университета Торонто, который занимается исследованиями нейронных сетей с 1980-х годов. Его работы легли в основу современного глубокого обучения — метода обучения ИИ на больших объемах данных. Хинтон часто называют «крестным отцом ИИ» за его вклад в развитие этой области. В этом году он ушел из Google, где он работал с 2013 года, чтобы иметь большую свободу для критики индустрии, в создании которой принимал непосредственное участие.
Ученый отметил, что в последнее время произошел резкий скачок в разработке генеративных ИИ, таких как ChatGPT и Bing Chat, которые могут создавать человекоподобный текст на основе заданной темы или запроса. Он считает, что это может быть признаком необузданного и потенциально опасного ускорения в развитии ИИ. Google, по его мнению, также отказался от своей прежней сдержанности и сконцентрировался на том, чтобы выйти победителем в конкурентной гонке.
На конференции Collision Хинтон рассказал о своих опасениях более подробно. В то время как компании рекламировали ИИ как решение для всего, от заключения аренды до доставки товаров, Хинтон бьет тревогу. Он убежден, что угроза ИИ реальна, а моральные проблемы его применения недооценены.
Угроза для человечества
Хинтон утверждал, что ИИ ровно настолько хорош и морален, насколько этими качествами обладают создающие его люди, и что плохой путь развития технологии все еще может воплотиться в реальность.
Я не уверен, что хорошему ИИ, который пытается остановить плохой ИИ, будет предоставлен контроль. Может быть сложно остановить военно-промышленный комплекс от производства боевых роботов — компании и армии могут слишком «любить» войны, где жертвами и участниками станут легко воспроизводимые машины
— Джеффри Хинтон.
Хинтон также считает, что большие языковые модели (обученные ИИ, которые производят человекоподобный текст, например, OpenAI GPT-4) могут привести к огромному росту производительности, но он беспокоится, что правящий класс может просто эксплуатировать это, чтобы обогатить себя, увеличивая уже большой разрыв в богатстве. Это «сделает богатых богаче, а бедных беднее», — сказал Хинтон.

Он также озвучил свою широко известную позицию, что ИИ может представлять собой существенную опасность для человечества. Если искусственный интеллект станет умнее людей, нет гарантии, что люди останутся у власти.
Есть много существенных проблем. Мы окажемся в беде, если ИИ решит, что самостоятельный захват контроля необходим для достижения целей, — сказал Хинтон. По его словам, угрозы «не просто научная фантастика»; их нужно воспринимать всерьез. Общество начнет ограничивать убийственных роботов только после того, как у него будет шанс увидеть насколько они ужасны
— Джеффри Хинтон.
Он акцентировал внимание также на том, что предвзятость и дискриминация также остаются открытым вопросом. Искаженные данные для обучения ИИ способны приводить к несправедливым результатам по отношению к определенным группам. Алгоритмы создают эхо-камеры, которые усиливают дезинформацию, что может приводить к неконтролируемой цепочке искажений. Хинтон также обеспокоен тем, что ИИ может распространять ложную информацию и за пределами таких камер. Он не уверен, возможно ли отфильтровать каждое ложное утверждение, но подчеркивает, что крайне важно отмечать все ложное как ложное.
Несмотря на общую негативную направленность выступления, нельзя сказать, что Хинтон является радикальным противником ИИ, хотя он предупреждает, что текущее беспечное отношение к применению технологии может обойтись слишком дорого.
- Алексей Павлов
- Collision 2023, photo by Jon Fingas
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас

Аргентинские ученые предложили неожиданную разгадку тайны Антикитерского механизма
Возможно, он постоянно «зависал», как старый компьютер. Или был вообще… игрушкой....

Еще раз о ядерной войне на Марсе
Гипотетический конфликт на Красной планете не дает покоя некоторым ученым....

В мозгах спецназовцев обнаружились скрытые аномалии
Новейшее исследование показало, что обычный МРТ вообще не видит некоторые травмы головы....

Причина необъяснимых нападений морских львов на людей наконец-то раскрыта
Все дело в редком токсине, который заполонил прибрежные воды Калифорнии....

Ужасное наводнение создало Средиземное море всего за несколько месяцев
Потоп мчался со скоростью 115 километров в час....

Пока мир тонет в песках, эта пустыня стремительно зеленеет!
Ученые рассказали, почему Великая индийская пустыня стала на 38% зеленее всего за 20 лет....

Властелины огня: как древние люди поддерживали пламя в самые холодные времена
Основным топливом была древесина ели....

Термоядерный двигатель доставит людей до Марса всего за три месяца
Новая эра космических исследований вот-вот начнется?...

Чужой бог в сердце Тикаля: Тайна алтаря, который хотели забыть
Археологи рассказали, почему майя стирали следы чужой цивилизации....

А фиолетовый-то, говорят… ненастоящий!
Ученые доказали, что этот цвет — иллюзия, существующая лишь у нас в голове....

Общий наркоз стирает уникальность головного мозга
Открытие поможет выводить пациентов из комы....

Археологи обнаружили в Египте 3400-летний затерянный город
Самое поразительное: он скрывался… под руинами древнегреческого некрополя....

Стало известно, как Земля «выкачала» воду с обратной стороны Луны
Сенсацию принес аппарат китайской миссии «Чанъэ-6»....

Новое исследование показало: мягкие игрушки — самые опасные вещи в доме
Микробов в этих предметах оказалось вдвое больше, чем на сиденье унитаза....

Ещё одна бесценная находка: челюсть с берегов Тайваня принадлежала денисовцу
Загадка не давала покоя несколько лет....

Раскрыт секрет: почему самые древние метеориты не долетают до Земли
Против само Солнце, но это не единственная причина....