
Алгоритмы обмана: как повысить конфиденциальность пользователей социальных сетей
Цифровые помощники способны помочь предотвратить неосознанное раскрытие пользователями своих взглядов на социальные, политические и религиозные вопросы, борясь с ИИ с помощью ИИ, утверждают ученые ученые из Нью-Йоркского университета Абу-Даби.
Результаты исследований показали, что автоматизированные помощники могут успешно подсказывать в режиме реального времени как изменить свое онлайн-поведение и ввести в заблуждение инструменты ИИ. Технология поможет скрыть свои взгляды от алгоритмов определения мнений от авторитарных правительств или источников фальшивых новостей.
Исследователи использовали данные более 4000 пользователей Twitter в США. Исследователи решили понять как ИИ может предсказывать взгляды людей на основе их онлайн-активности и профиля.
Исследованию предшествовал опрос среди 1000 интернет-пользователей на тему «Насколько важно обезопасить информацию о персональных предпочтениях». От 15% до 32% участников опроса с нейтральными взглядами на спорные темы отметили острую необходимость держать свои взгляды в тайне. Даже среди пользователей, которые имеют твердые убеждения, от 10% до 23% хотели бы держать свое мнение при себе.
В то же время, исследования показали, что онлайн-активность пользователей может раскрыть их убеждения вредоносным алгоритмам, даже если они этого не осознают.
Результатом работы стал прототип автоматизированного помощника, который поможет пользователям Твиттера сохранять в тайне свои взгляды на потенциально вызывающие разногласия темы, такие как атеизм, феминизм и политика.
Результаты исследований показали, что автоматизированные помощники могут успешно подсказывать в режиме реального времени как изменить свое онлайн-поведение и ввести в заблуждение инструменты ИИ. Технология поможет скрыть свои взгляды от алгоритмов определения мнений от авторитарных правительств или источников фальшивых новостей.
Исследователи использовали данные более 4000 пользователей Twitter в США. Исследователи решили понять как ИИ может предсказывать взгляды людей на основе их онлайн-активности и профиля.
Исследованию предшествовал опрос среди 1000 интернет-пользователей на тему «Насколько важно обезопасить информацию о персональных предпочтениях». От 15% до 32% участников опроса с нейтральными взглядами на спорные темы отметили острую необходимость держать свои взгляды в тайне. Даже среди пользователей, которые имеют твердые убеждения, от 10% до 23% хотели бы держать свое мнение при себе.
В то же время, исследования показали, что онлайн-активность пользователей может раскрыть их убеждения вредоносным алгоритмам, даже если они этого не осознают.
Результатом работы стал прототип автоматизированного помощника, который поможет пользователям Твиттера сохранять в тайне свои взгляды на потенциально вызывающие разногласия темы, такие как атеизм, феминизм и политика.
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас

На 3300-летнем египетском обелиске, стоящем в Париже, обнаружены… тайные послания
Увидеть их могли лишь немногие избранные, причем только в определенное время года....

В Индонезии хотят стерилизовать самых бедных мужчин
«Денег нет? Тогда не размножайся!» — говорит один из тамошних губернаторов....

Оказалось, что раны у людей заживают в три раза медленнее, чем у шимпанзе
Ученые пытаются разобраться в этом парадоксе. И вот что они узнали....

Веста, второй по величине астероид в Солнечной системе, может быть частью исчезнувшей планеты
Загадка малой планеты разделила астрономов....