Пионер ИИ Джеффри Хинтон не уверен, что хороший ИИ победит плохой ИИ
Джеффри Хинтон, один из основоположников искусственного интеллекта, не уверен, что хороший сценарий развития ИИ вероятнее плохого. Он высказал свои опасения на конференции Collision в Торонто в этом году. Хинтон считает, что ИИ может представлять угрозу для человечества, если станет умнее людей и решит взять контроль над миром. Он также беспокоится, что ИИ может усугубить социальное неравенство, дискриминацию и тенденцию к созданию и распространению ложной информации.
Хинтон — профессор Университета Торонто, который занимается исследованиями нейронных сетей с 1980-х годов. Его работы легли в основу современного глубокого обучения — метода обучения ИИ на больших объемах данных. Хинтон часто называют «крестным отцом ИИ» за его вклад в развитие этой области. В этом году он ушел из Google, где он работал с 2013 года, чтобы иметь большую свободу для критики индустрии, в создании которой принимал непосредственное участие.
Ученый отметил, что в последнее время произошел резкий скачок в разработке генеративных ИИ, таких как ChatGPT и Bing Chat, которые могут создавать человекоподобный текст на основе заданной темы или запроса. Он считает, что это может быть признаком необузданного и потенциально опасного ускорения в развитии ИИ. Google, по его мнению, также отказался от своей прежней сдержанности и сконцентрировался на том, чтобы выйти победителем в конкурентной гонке.
На конференции Collision Хинтон рассказал о своих опасениях более подробно. В то время как компании рекламировали ИИ как решение для всего, от заключения аренды до доставки товаров, Хинтон бьет тревогу. Он убежден, что угроза ИИ реальна, а моральные проблемы его применения недооценены.
Хинтон утверждал, что ИИ ровно настолько хорош и морален, насколько этими качествами обладают создающие его люди, и что плохой путь развития технологии все еще может воплотиться в реальность.
— Джеффри Хинтон.
Хинтон также считает, что большие языковые модели (обученные ИИ, которые производят человекоподобный текст, например, OpenAI GPT-4) могут привести к огромному росту производительности, но он беспокоится, что правящий класс может просто эксплуатировать это, чтобы обогатить себя, увеличивая уже большой разрыв в богатстве. Это «сделает богатых богаче, а бедных беднее», — сказал Хинтон.
Он также озвучил свою широко известную позицию, что ИИ может представлять собой существенную опасность для человечества. Если искусственный интеллект станет умнее людей, нет гарантии, что люди останутся у власти.
— Джеффри Хинтон.
Он акцентировал внимание также на том, что предвзятость и дискриминация также остаются открытым вопросом. Искаженные данные для обучения ИИ способны приводить к несправедливым результатам по отношению к определенным группам. Алгоритмы создают эхо-камеры, которые усиливают дезинформацию, что может приводить к неконтролируемой цепочке искажений. Хинтон также обеспокоен тем, что ИИ может распространять ложную информацию и за пределами таких камер. Он не уверен, возможно ли отфильтровать каждое ложное утверждение, но подчеркивает, что крайне важно отмечать все ложное как ложное.
Несмотря на общую негативную направленность выступления, нельзя сказать, что Хинтон является радикальным противником ИИ, хотя он предупреждает, что текущее беспечное отношение к применению технологии может обойтись слишком дорого.
Хинтон — профессор Университета Торонто, который занимается исследованиями нейронных сетей с 1980-х годов. Его работы легли в основу современного глубокого обучения — метода обучения ИИ на больших объемах данных. Хинтон часто называют «крестным отцом ИИ» за его вклад в развитие этой области. В этом году он ушел из Google, где он работал с 2013 года, чтобы иметь большую свободу для критики индустрии, в создании которой принимал непосредственное участие.
Ученый отметил, что в последнее время произошел резкий скачок в разработке генеративных ИИ, таких как ChatGPT и Bing Chat, которые могут создавать человекоподобный текст на основе заданной темы или запроса. Он считает, что это может быть признаком необузданного и потенциально опасного ускорения в развитии ИИ. Google, по его мнению, также отказался от своей прежней сдержанности и сконцентрировался на том, чтобы выйти победителем в конкурентной гонке.
На конференции Collision Хинтон рассказал о своих опасениях более подробно. В то время как компании рекламировали ИИ как решение для всего, от заключения аренды до доставки товаров, Хинтон бьет тревогу. Он убежден, что угроза ИИ реальна, а моральные проблемы его применения недооценены.
Угроза для человечества
Хинтон утверждал, что ИИ ровно настолько хорош и морален, насколько этими качествами обладают создающие его люди, и что плохой путь развития технологии все еще может воплотиться в реальность.
Я не уверен, что хорошему ИИ, который пытается остановить плохой ИИ, будет предоставлен контроль. Может быть сложно остановить военно-промышленный комплекс от производства боевых роботов — компании и армии могут слишком «любить» войны, где жертвами и участниками станут легко воспроизводимые машины
— Джеффри Хинтон.
Хинтон также считает, что большие языковые модели (обученные ИИ, которые производят человекоподобный текст, например, OpenAI GPT-4) могут привести к огромному росту производительности, но он беспокоится, что правящий класс может просто эксплуатировать это, чтобы обогатить себя, увеличивая уже большой разрыв в богатстве. Это «сделает богатых богаче, а бедных беднее», — сказал Хинтон.
Он также озвучил свою широко известную позицию, что ИИ может представлять собой существенную опасность для человечества. Если искусственный интеллект станет умнее людей, нет гарантии, что люди останутся у власти.
Есть много существенных проблем. Мы окажемся в беде, если ИИ решит, что самостоятельный захват контроля необходим для достижения целей, — сказал Хинтон. По его словам, угрозы «не просто научная фантастика»; их нужно воспринимать всерьез. Общество начнет ограничивать убийственных роботов только после того, как у него будет шанс увидеть насколько они ужасны
— Джеффри Хинтон.
Он акцентировал внимание также на том, что предвзятость и дискриминация также остаются открытым вопросом. Искаженные данные для обучения ИИ способны приводить к несправедливым результатам по отношению к определенным группам. Алгоритмы создают эхо-камеры, которые усиливают дезинформацию, что может приводить к неконтролируемой цепочке искажений. Хинтон также обеспокоен тем, что ИИ может распространять ложную информацию и за пределами таких камер. Он не уверен, возможно ли отфильтровать каждое ложное утверждение, но подчеркивает, что крайне важно отмечать все ложное как ложное.
Несмотря на общую негативную направленность выступления, нельзя сказать, что Хинтон является радикальным противником ИИ, хотя он предупреждает, что текущее беспечное отношение к применению технологии может обойтись слишком дорого.
- Алексей Павлов
- Collision 2023, photo by Jon Fingas
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас
Как на ладони: Обнаружен морской гигант, который виден из космоса
Мегакоралл у Соломоновых островов оказался самым крупным животным Земли....
Спасти планету сможет… африканский червь
В Кении найдено насекомое с удивительными способностями....
Забудьте всё, что вы знали о Луне
Новая теория предлагает в корне иное происхождение ночного светила....
Главная тайна Седьмой планеты разгадана через 38 лет
Уран оказался не таким уж странным, как думали ученые....
80 000 лет жизни: какие тайны скрывает самое древнее и большое существо на планете?
Залог невероятного долголетия и удивительного выживания обнаружили учёные....
«Орешник», «Бук» и «Тополь»: искусный нейминг от российских военных конструкторов
Наука как сбить Запад с толку....
Раскрыт секрет идеального женского тела?
Оказывается, дело вовсе не в соотношении талии и бедер....
Янтарь из недр Антарктиды раскрыл тайны тропических лесов
Застывшая смола возрастом 90 млн лет как часть исчезнувшей экосистемы....
Саблезубый котёнок томился во льдах Якутии 35 тысяч лет
Благодаря находке стало известно, что сородичи пушистика обитали в столь холодных местах....
Ученая вылечила свой рак вирусами собственного производства
Если человек хочет жить — медицина бессильна....
Носи умные очки или увольняйся!
Amazon планирует заставить всех курьеров носить этот электронный прибор....
Разгадано учеными: почему города разрушают сердце и разум
Причины, которые нашли исследователи, вас удивят....
Почти бессмертные существа помогут человечеству покорить глубокий космос
Ученым, наконец, удалось «взломать» код поразительной живучести тихоходок....
Турбулентность отменяется! А пилоты-люди вообще будут не нужны
Искусственный интеллект может в корне изменить авиацию....
Надеялись на Беса: древние египтянки при беременности хлебали галлюциногенные смеси
Думали, что божок с двусмысленным для нас именем убережёт....
Чудо в перьях: Робот-голубь «упорхнёт» от радиолокации
Изобретение грозит новой гонкой вооружений....