
Fauxtomation: как за фасадом ИИ скрываются «рабы» с цифровых «плантаций»
В эпоху, когда искусственный интеллект стал символом технологического прорыва, стартапы все чаще используют его как магическое заклинание для привлечения миллионов долларов. Но за громкими заявлениями о «революционных алгоритмах» нередко скрывается старая добрая рутина — низкооплачиваемые работники, вручную выполняющие задачи, которые должны были быть автоматизированы.
История компании Nate, обвиненной в мошенничестве, — лишь верхушка айсберга. От Нью-Йорка до Манилы, от Калифорнии до Найроби, за фасадом «инноваций» кипит скрытый человеческий труд, а инвесторы теряют миллионы, веря в мираж.
В 2018 году Альберт Санигер основал Nate — стартап, который обещал перевернуть мир электронной коммерции. Приложение, по словам его создателя, позволяло совершать покупки на любом сайте «одним щелчком» благодаря «уникальному ИИ».

Секрет ИИ оказался крайне прост
Эта идея оказалась настолько привлекательной, что к 2021 году Nate привлек 50 млн $ от топ-инвесторов: Coatue, Forerunner Ventures и Renegade Partners. В пресс-релизах Санигер подчеркивал, что система работает «без участия человека», за исключением «крайних случаев».
Однако в 2022 году расследование The Information вскрыло неприглядную правду: вместо алгоритмов компания использовала сотни сотрудников колл-центров на Филиппинах, которые вручную оформляли заказы. Как заявило Министерство юстиции США, «фактическая степень автоматизации составляла 0%». Инвесторы, поверившие в «прорывную технологию», потеряли почти все: к январю 2023 года Nate обанкротилась и продала активы. Санигер, который теперь числится управляющим партнером Buttercore Partners, отказался комментировать ситуацию.
Этот случай — не просто провал стартапа. Это системный обман, где ИИ стал ширмой для прикрытия архаичных методов. Как отметили в американском суде, Санигер сознательно вводил инвесторов в заблуждение, утверждая, что компания «приобрела технологии ИИ и наняла специалистов». На деле же расходы ушли на оплату труда тысяч «невидимых» работников, чьи руки заменяли код.
В современном IT-словаре уже появился термин fauxtomation. Он означает создание иллюзии автоматизации через скрытый человеческий труд. Nate, кстати, далеко не единственный пример, когда в погоне за инвестициями и хайпом, компании имитировали ИИ, маскируя под ним живых людей.
Amazon Just Walk Out — система бесконтактной оплаты в магазинах Amazon — рекламировалась как чудо компьютерного зрения. Однако Bloomberg выяснил, что 70% транзакций проверяли более 1000 индийских работников, просматривавших записи с камер. Компания оправдывалась «обучением ИИ», но, как отметил Scientific American, «основную работу выполняли люди».

Куча индусов, и нейросеть готова!
Receipt Bank (Dext), стартап, обещавший «ИИ для оцифровки чеков», до 2020 года использовал филиппинские команды для ручного ввода данных в Excel. Этот подход, названный Concierge MVP, позволял собирать данные для будущих алгоритмов, но текущие клиенты даже не догадывались, что платят за «человеческий ИИ».
X.ai — сервис планирования встреч через email заявлял о «полностью автономном ИИ», но 90% писем обрабатывали люди. Лишь после накопления данных стартап начал внедрять алгоритмы, сохраняя человеческий контроль за сложными кейсами.
EEB (FTC, 2024) — компания, обещавшая клиентам «ИИ для создания миллионных бизнесов», использовала низкооплачиваемых работников для ручного управления магазинами. FTC признала их заявления фиктивными, а прибыль — результатом эксплуатации труда.
Scale AI — партнер OpenAI и Meta нанимал тысячи кенийских и филиппинских работников за 1-2 $ в час для маркировки данных. Несмотря на лозунги о «революции», 40% задач требовали ручной проверки. Time назвал это «цифровыми потогонками».
Крах Nate и подобных компаний ставит острые вопросы. Почему инвесторы, вкладывающие миллионы, не проверяют реальные процессы? Как регулировать заявления о ИИ, которые оказались пустыми обещаниями? И главное, что делать с «невидимой» рабочей силой, трудящейся в тени алгоритмов?

Эксперты говорят, что фейковые ИИ будут множиться
С одной стороны, стартапы оправдываются: ручной труд — временная мера для обучения ИИ. Но, как показывает пример Nate, переход к автоматизации так и не происходит. Более того, работники из стран с низкими зарплатами становятся заложниками системы. Scale AI платил кенийцам 1,5 $ в час за модерацию контента, включая травмирующие материалы.
С другой — инвесторы слишком легко ведутся на хайп. Венчурные фонды хотят верить в сказку об ИИ, даже если для этого нужно закрыть глаза на реальность. Власти в разных странах начинают бороться с этим обманом, но пока судебных дел — единицы.
Также остается открытым и вопрос регулирования. Должны ли компании раскрывать долю человеческого труда в своих «ИИ-продуктах»? Как предотвратить эксплуатацию в глобальном масштабе? Пока ответов нет.
История компании Nate, обвиненной в мошенничестве, — лишь верхушка айсберга. От Нью-Йорка до Манилы, от Калифорнии до Найроби, за фасадом «инноваций» кипит скрытый человеческий труд, а инвесторы теряют миллионы, веря в мираж.
Нейросеть по-филиппински
В 2018 году Альберт Санигер основал Nate — стартап, который обещал перевернуть мир электронной коммерции. Приложение, по словам его создателя, позволяло совершать покупки на любом сайте «одним щелчком» благодаря «уникальному ИИ».

Секрет ИИ оказался крайне прост
Эта идея оказалась настолько привлекательной, что к 2021 году Nate привлек 50 млн $ от топ-инвесторов: Coatue, Forerunner Ventures и Renegade Partners. В пресс-релизах Санигер подчеркивал, что система работает «без участия человека», за исключением «крайних случаев».
Однако в 2022 году расследование The Information вскрыло неприглядную правду: вместо алгоритмов компания использовала сотни сотрудников колл-центров на Филиппинах, которые вручную оформляли заказы. Как заявило Министерство юстиции США, «фактическая степень автоматизации составляла 0%». Инвесторы, поверившие в «прорывную технологию», потеряли почти все: к январю 2023 года Nate обанкротилась и продала активы. Санигер, который теперь числится управляющим партнером Buttercore Partners, отказался комментировать ситуацию.
Этот случай — не просто провал стартапа. Это системный обман, где ИИ стал ширмой для прикрытия архаичных методов. Как отметили в американском суде, Санигер сознательно вводил инвесторов в заблуждение, утверждая, что компания «приобрела технологии ИИ и наняла специалистов». На деле же расходы ушли на оплату труда тысяч «невидимых» работников, чьи руки заменяли код.
Fauxtomation — фейковые ИИ
В современном IT-словаре уже появился термин fauxtomation. Он означает создание иллюзии автоматизации через скрытый человеческий труд. Nate, кстати, далеко не единственный пример, когда в погоне за инвестициями и хайпом, компании имитировали ИИ, маскируя под ним живых людей.
Amazon Just Walk Out — система бесконтактной оплаты в магазинах Amazon — рекламировалась как чудо компьютерного зрения. Однако Bloomberg выяснил, что 70% транзакций проверяли более 1000 индийских работников, просматривавших записи с камер. Компания оправдывалась «обучением ИИ», но, как отметил Scientific American, «основную работу выполняли люди».

Куча индусов, и нейросеть готова!
Receipt Bank (Dext), стартап, обещавший «ИИ для оцифровки чеков», до 2020 года использовал филиппинские команды для ручного ввода данных в Excel. Этот подход, названный Concierge MVP, позволял собирать данные для будущих алгоритмов, но текущие клиенты даже не догадывались, что платят за «человеческий ИИ».
X.ai — сервис планирования встреч через email заявлял о «полностью автономном ИИ», но 90% писем обрабатывали люди. Лишь после накопления данных стартап начал внедрять алгоритмы, сохраняя человеческий контроль за сложными кейсами.
EEB (FTC, 2024) — компания, обещавшая клиентам «ИИ для создания миллионных бизнесов», использовала низкооплачиваемых работников для ручного управления магазинами. FTC признала их заявления фиктивными, а прибыль — результатом эксплуатации труда.
Scale AI — партнер OpenAI и Meta нанимал тысячи кенийских и филиппинских работников за 1-2 $ в час для маркировки данных. Несмотря на лозунги о «революции», 40% задач требовали ручной проверки. Time назвал это «цифровыми потогонками».
Кто должен нести ответственность?
Крах Nate и подобных компаний ставит острые вопросы. Почему инвесторы, вкладывающие миллионы, не проверяют реальные процессы? Как регулировать заявления о ИИ, которые оказались пустыми обещаниями? И главное, что делать с «невидимой» рабочей силой, трудящейся в тени алгоритмов?

Эксперты говорят, что фейковые ИИ будут множиться
С одной стороны, стартапы оправдываются: ручной труд — временная мера для обучения ИИ. Но, как показывает пример Nate, переход к автоматизации так и не происходит. Более того, работники из стран с низкими зарплатами становятся заложниками системы. Scale AI платил кенийцам 1,5 $ в час за модерацию контента, включая травмирующие материалы.
С другой — инвесторы слишком легко ведутся на хайп. Венчурные фонды хотят верить в сказку об ИИ, даже если для этого нужно закрыть глаза на реальность. Власти в разных странах начинают бороться с этим обманом, но пока судебных дел — единицы.
Также остается открытым и вопрос регулирования. Должны ли компании раскрывать долю человеческого труда в своих «ИИ-продуктах»? Как предотвратить эксплуатацию в глобальном масштабе? Пока ответов нет.
- Дмитрий Алексеев
- yandex.net
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас

NASA объявило: Найдены самые убедительные доказательства существования жизни на Марсе
Ученые тем временем выясняют, как могли выглядеть древние жители Красной планеты...

16-тонный саркофаг, заполненный сокровищами, может подтвердить одну из самых таинственных и кровавых легенд древнего Китая
Какой секрет хранила эта гробница, что оставалась единственной нетронутой два тысячелетия?...

Ученый утверждает: у него есть доказательства, что мы живем в матрице
По словам Мелвина Вопсона, подсказки он нашел в ДНК, расширении Вселенной и фундаментальных законах физики...

Новая операция по объединению людей и животных может подарить… вечную жизнь
Медики признаются: уже сейчас можно сделать новое тело человека. Но один орган пока не поддается науке...

Выяснилось, что полное восстановление озонового слоя закончится глобальной катастрофой
Как так вышло, что в борьбе за экологию человечество сделало себе еще хуже?...

Оказывается, решение проблемы выбоин на дорогах существует уже почти 100 лет
Почему технология, забытая полвека назад, возвращается и становится очень популярной?...

Разгадка феномена «копченых» мумий может переписать древнейшую историю человечества
Поразительно: этот погребальный обычай, возможно, используют уже 42 000 лет подряд!...

Не украли, а «присвоили»: историки выяснили, как и откуда семья Марко Поло раздобыла главный символ Венеции
Данные, полученные из «ДНК» льва святого Марка, помогли распутать детектив длиной в 700 лет...

К 2035 году сектор Газа должен стать… самым продвинутым регионом на планете под управлением ИИ
По словам экспертов, в дерзком эксперименте за 100 млрд долларов есть только один большой вопрос: Куда выселить местное население?...

Каждый год, как расписанию, на Марсе образуется странное облако
Долгое время ученые не могли разгадать эту аномалию, но теперь ответ наконец-то найден!...