ВСЛУХ

Пионер ИИ Джеффри Хинтон не уверен, что хороший ИИ победит плохой ИИ

Пионер ИИ Джеффри Хинтон не уверен, что хороший ИИ победит плохой ИИ
Джеффри Хинтон, один из основоположников искусственного интеллекта, не уверен, что хороший сценарий развития ИИ вероятнее плохого. Он высказал свои опасения на конференции Collision в Торонто в этом году. Хинтон считает, что ИИ может представлять угрозу для человечества, если станет умнее людей и решит взять контроль над миром. Он также беспокоится, что ИИ может усугубить социальное неравенство, дискриминацию и тенденцию к созданию и распространению ложной информации.


Хинтон — профессор Университета Торонто, который занимается исследованиями нейронных сетей с 1980-х годов. Его работы легли в основу современного глубокого обучения — метода обучения ИИ на больших объемах данных. Хинтон часто называют «крестным отцом ИИ» за его вклад в развитие этой области. В этом году он ушел из Google, где он работал с 2013 года, чтобы иметь большую свободу для критики индустрии, в создании которой принимал непосредственное участие.

Ученый отметил, что в последнее время произошел резкий скачок в разработке генеративных ИИ, таких как ChatGPT и Bing Chat, которые могут создавать человекоподобный текст на основе заданной темы или запроса. Он считает, что это может быть признаком необузданного и потенциально опасного ускорения в развитии ИИ. Google, по его мнению, также отказался от своей прежней сдержанности и сконцентрировался на том, чтобы выйти победителем в конкурентной гонке.

На конференции Collision Хинтон рассказал о своих опасениях более подробно. В то время как компании рекламировали ИИ как решение для всего, от заключения аренды до доставки товаров, Хинтон бьет тревогу. Он убежден, что угроза ИИ реальна, а моральные проблемы его применения недооценены.

Угроза для человечества


Хинтон утверждал, что ИИ ровно настолько хорош и морален, насколько этими качествами обладают создающие его люди, и что плохой путь развития технологии все еще может воплотиться в реальность.

Я не уверен, что хорошему ИИ, который пытается остановить плохой ИИ, будет предоставлен контроль. Может быть сложно остановить военно-промышленный комплекс от производства боевых роботов — компании и армии могут слишком «любить» войны, где жертвами и участниками станут легко воспроизводимые машины

— Джеффри Хинтон.

Хинтон также считает, что большие языковые модели (обученные ИИ, которые производят человекоподобный текст, например, OpenAI GPT-4) могут привести к огромному росту производительности, но он беспокоится, что правящий класс может просто эксплуатировать это, чтобы обогатить себя, увеличивая уже большой разрыв в богатстве. Это «сделает богатых богаче, а бедных беднее», — сказал Хинтон.

Пионер ИИ Джеффри Хинтон не уверен, что хороший ИИ победит плохой ИИ

Он также озвучил свою широко известную позицию, что ИИ может представлять собой существенную опасность для человечества. Если искусственный интеллект станет умнее людей, нет гарантии, что люди останутся у власти.

Есть много существенных проблем. Мы окажемся в беде, если ИИ решит, что самостоятельный захват контроля необходим для достижения целей, — сказал Хинтон. По его словам, угрозы «не просто научная фантастика»; их нужно воспринимать всерьез. Общество начнет ограничивать убийственных роботов только после того, как у него будет шанс увидеть насколько они ужасны

— Джеффри Хинтон.

Он акцентировал внимание также на том, что предвзятость и дискриминация также остаются открытым вопросом. Искаженные данные для обучения ИИ способны приводить к несправедливым результатам по отношению к определенным группам. Алгоритмы создают эхо-камеры, которые усиливают дезинформацию, что может приводить к неконтролируемой цепочке искажений. Хинтон также обеспокоен тем, что ИИ может распространять ложную информацию и за пределами таких камер. Он не уверен, возможно ли отфильтровать каждое ложное утверждение, но подчеркивает, что крайне важно отмечать все ложное как ложное.

Несмотря на общую негативную направленность выступления, нельзя сказать, что Хинтон является радикальным противником ИИ, хотя он предупреждает, что текущее беспечное отношение к применению технологии может обойтись слишком дорого.

Автор:

Использованы фотографии: Collision 2023, photo by Jon Fingas

Мы в Мы в Яндекс Дзен
Родились первые дети, зачатые с помощью роботаТоп странных, но крутых вопросов современной физики

Нас ждет новая пандемия?

Нас ждет новая пандемия?

Африка в очередной раз подтвердила, что она — инкубатор смертельно опасных вирусов....
  • 982