Алгоритмы обмана: как повысить конфиденциальность пользователей социальных сетей
32

Алгоритмы обмана: как повысить конфиденциальность пользователей социальных сетей

Цифровые помощники способны помочь предотвратить неосознанное раскрытие пользователями своих взглядов на социальные, политические и религиозные вопросы, борясь с ИИ с помощью ИИ, утверждают ученые ученые из Нью-Йоркского университета Абу-Даби.


Результаты исследований показали, что автоматизированные помощники могут успешно подсказывать в режиме реального времени как изменить свое онлайн-поведение и ввести в заблуждение инструменты ИИ. Технология поможет скрыть свои взгляды от алгоритмов определения мнений от авторитарных правительств или источников фальшивых новостей.

Исследователи использовали данные более 4000 пользователей Twitter в США. Исследователи решили понять как ИИ может предсказывать взгляды людей на основе их онлайн-активности и профиля.

Исследованию предшествовал опрос среди 1000 интернет-пользователей на тему «Насколько важно обезопасить информацию о персональных предпочтениях». От 15% до 32% участников опроса с нейтральными взглядами на спорные темы отметили острую необходимость держать свои взгляды в тайне. Даже среди пользователей, которые имеют твердые убеждения, от 10% до 23% хотели бы держать свое мнение при себе.

В то же время, исследования показали, что онлайн-активность пользователей может раскрыть их убеждения вредоносным алгоритмам, даже если они этого не осознают.

Результатом работы стал прототип автоматизированного помощника, который поможет пользователям Твиттера сохранять в тайне свои взгляды на потенциально вызывающие разногласия темы, такие как атеизм, феминизм и политика.
Наши новостные каналы

Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.

Рекомендуем для вас