
Fauxtomation: как за фасадом ИИ скрываются «рабы» с цифровых «плантаций»
В эпоху, когда искусственный интеллект стал символом технологического прорыва, стартапы все чаще используют его как магическое заклинание для привлечения миллионов долларов. Но за громкими заявлениями о «революционных алгоритмах» нередко скрывается старая добрая рутина — низкооплачиваемые работники, вручную выполняющие задачи, которые должны были быть автоматизированы.
История компании Nate, обвиненной в мошенничестве, — лишь верхушка айсберга. От Нью-Йорка до Манилы, от Калифорнии до Найроби, за фасадом «инноваций» кипит скрытый человеческий труд, а инвесторы теряют миллионы, веря в мираж.
В 2018 году Альберт Санигер основал Nate — стартап, который обещал перевернуть мир электронной коммерции. Приложение, по словам его создателя, позволяло совершать покупки на любом сайте «одним щелчком» благодаря «уникальному ИИ».

Секрет ИИ оказался крайне прост
Эта идея оказалась настолько привлекательной, что к 2021 году Nate привлек 50 млн $ от топ-инвесторов: Coatue, Forerunner Ventures и Renegade Partners. В пресс-релизах Санигер подчеркивал, что система работает «без участия человека», за исключением «крайних случаев».
Однако в 2022 году расследование The Information вскрыло неприглядную правду: вместо алгоритмов компания использовала сотни сотрудников колл-центров на Филиппинах, которые вручную оформляли заказы. Как заявило Министерство юстиции США, «фактическая степень автоматизации составляла 0%». Инвесторы, поверившие в «прорывную технологию», потеряли почти все: к январю 2023 года Nate обанкротилась и продала активы. Санигер, который теперь числится управляющим партнером Buttercore Partners, отказался комментировать ситуацию.
Этот случай — не просто провал стартапа. Это системный обман, где ИИ стал ширмой для прикрытия архаичных методов. Как отметили в американском суде, Санигер сознательно вводил инвесторов в заблуждение, утверждая, что компания «приобрела технологии ИИ и наняла специалистов». На деле же расходы ушли на оплату труда тысяч «невидимых» работников, чьи руки заменяли код.
В современном IT-словаре уже появился термин fauxtomation. Он означает создание иллюзии автоматизации через скрытый человеческий труд. Nate, кстати, далеко не единственный пример, когда в погоне за инвестициями и хайпом, компании имитировали ИИ, маскируя под ним живых людей.
Amazon Just Walk Out — система бесконтактной оплаты в магазинах Amazon — рекламировалась как чудо компьютерного зрения. Однако Bloomberg выяснил, что 70% транзакций проверяли более 1000 индийских работников, просматривавших записи с камер. Компания оправдывалась «обучением ИИ», но, как отметил Scientific American, «основную работу выполняли люди».

Куча индусов, и нейросеть готова!
Receipt Bank (Dext), стартап, обещавший «ИИ для оцифровки чеков», до 2020 года использовал филиппинские команды для ручного ввода данных в Excel. Этот подход, названный Concierge MVP, позволял собирать данные для будущих алгоритмов, но текущие клиенты даже не догадывались, что платят за «человеческий ИИ».
X.ai — сервис планирования встреч через email заявлял о «полностью автономном ИИ», но 90% писем обрабатывали люди. Лишь после накопления данных стартап начал внедрять алгоритмы, сохраняя человеческий контроль за сложными кейсами.
EEB (FTC, 2024) — компания, обещавшая клиентам «ИИ для создания миллионных бизнесов», использовала низкооплачиваемых работников для ручного управления магазинами. FTC признала их заявления фиктивными, а прибыль — результатом эксплуатации труда.
Scale AI — партнер OpenAI и Meta нанимал тысячи кенийских и филиппинских работников за 1-2 $ в час для маркировки данных. Несмотря на лозунги о «революции», 40% задач требовали ручной проверки. Time назвал это «цифровыми потогонками».
Крах Nate и подобных компаний ставит острые вопросы. Почему инвесторы, вкладывающие миллионы, не проверяют реальные процессы? Как регулировать заявления о ИИ, которые оказались пустыми обещаниями? И главное, что делать с «невидимой» рабочей силой, трудящейся в тени алгоритмов?

Эксперты говорят, что фейковые ИИ будут множиться
С одной стороны, стартапы оправдываются: ручной труд — временная мера для обучения ИИ. Но, как показывает пример Nate, переход к автоматизации так и не происходит. Более того, работники из стран с низкими зарплатами становятся заложниками системы. Scale AI платил кенийцам 1,5 $ в час за модерацию контента, включая травмирующие материалы.
С другой — инвесторы слишком легко ведутся на хайп. Венчурные фонды хотят верить в сказку об ИИ, даже если для этого нужно закрыть глаза на реальность. Власти в разных странах начинают бороться с этим обманом, но пока судебных дел — единицы.
Также остается открытым и вопрос регулирования. Должны ли компании раскрывать долю человеческого труда в своих «ИИ-продуктах»? Как предотвратить эксплуатацию в глобальном масштабе? Пока ответов нет.
История компании Nate, обвиненной в мошенничестве, — лишь верхушка айсберга. От Нью-Йорка до Манилы, от Калифорнии до Найроби, за фасадом «инноваций» кипит скрытый человеческий труд, а инвесторы теряют миллионы, веря в мираж.
Нейросеть по-филиппински
В 2018 году Альберт Санигер основал Nate — стартап, который обещал перевернуть мир электронной коммерции. Приложение, по словам его создателя, позволяло совершать покупки на любом сайте «одним щелчком» благодаря «уникальному ИИ».

Секрет ИИ оказался крайне прост
Эта идея оказалась настолько привлекательной, что к 2021 году Nate привлек 50 млн $ от топ-инвесторов: Coatue, Forerunner Ventures и Renegade Partners. В пресс-релизах Санигер подчеркивал, что система работает «без участия человека», за исключением «крайних случаев».
Однако в 2022 году расследование The Information вскрыло неприглядную правду: вместо алгоритмов компания использовала сотни сотрудников колл-центров на Филиппинах, которые вручную оформляли заказы. Как заявило Министерство юстиции США, «фактическая степень автоматизации составляла 0%». Инвесторы, поверившие в «прорывную технологию», потеряли почти все: к январю 2023 года Nate обанкротилась и продала активы. Санигер, который теперь числится управляющим партнером Buttercore Partners, отказался комментировать ситуацию.
Этот случай — не просто провал стартапа. Это системный обман, где ИИ стал ширмой для прикрытия архаичных методов. Как отметили в американском суде, Санигер сознательно вводил инвесторов в заблуждение, утверждая, что компания «приобрела технологии ИИ и наняла специалистов». На деле же расходы ушли на оплату труда тысяч «невидимых» работников, чьи руки заменяли код.
Fauxtomation — фейковые ИИ
В современном IT-словаре уже появился термин fauxtomation. Он означает создание иллюзии автоматизации через скрытый человеческий труд. Nate, кстати, далеко не единственный пример, когда в погоне за инвестициями и хайпом, компании имитировали ИИ, маскируя под ним живых людей.
Amazon Just Walk Out — система бесконтактной оплаты в магазинах Amazon — рекламировалась как чудо компьютерного зрения. Однако Bloomberg выяснил, что 70% транзакций проверяли более 1000 индийских работников, просматривавших записи с камер. Компания оправдывалась «обучением ИИ», но, как отметил Scientific American, «основную работу выполняли люди».

Куча индусов, и нейросеть готова!
Receipt Bank (Dext), стартап, обещавший «ИИ для оцифровки чеков», до 2020 года использовал филиппинские команды для ручного ввода данных в Excel. Этот подход, названный Concierge MVP, позволял собирать данные для будущих алгоритмов, но текущие клиенты даже не догадывались, что платят за «человеческий ИИ».
X.ai — сервис планирования встреч через email заявлял о «полностью автономном ИИ», но 90% писем обрабатывали люди. Лишь после накопления данных стартап начал внедрять алгоритмы, сохраняя человеческий контроль за сложными кейсами.
EEB (FTC, 2024) — компания, обещавшая клиентам «ИИ для создания миллионных бизнесов», использовала низкооплачиваемых работников для ручного управления магазинами. FTC признала их заявления фиктивными, а прибыль — результатом эксплуатации труда.
Scale AI — партнер OpenAI и Meta нанимал тысячи кенийских и филиппинских работников за 1-2 $ в час для маркировки данных. Несмотря на лозунги о «революции», 40% задач требовали ручной проверки. Time назвал это «цифровыми потогонками».
Кто должен нести ответственность?
Крах Nate и подобных компаний ставит острые вопросы. Почему инвесторы, вкладывающие миллионы, не проверяют реальные процессы? Как регулировать заявления о ИИ, которые оказались пустыми обещаниями? И главное, что делать с «невидимой» рабочей силой, трудящейся в тени алгоритмов?

Эксперты говорят, что фейковые ИИ будут множиться
С одной стороны, стартапы оправдываются: ручной труд — временная мера для обучения ИИ. Но, как показывает пример Nate, переход к автоматизации так и не происходит. Более того, работники из стран с низкими зарплатами становятся заложниками системы. Scale AI платил кенийцам 1,5 $ в час за модерацию контента, включая травмирующие материалы.
С другой — инвесторы слишком легко ведутся на хайп. Венчурные фонды хотят верить в сказку об ИИ, даже если для этого нужно закрыть глаза на реальность. Власти в разных странах начинают бороться с этим обманом, но пока судебных дел — единицы.
Также остается открытым и вопрос регулирования. Должны ли компании раскрывать долю человеческого труда в своих «ИИ-продуктах»? Как предотвратить эксплуатацию в глобальном масштабе? Пока ответов нет.
- Дмитрий Алексеев
- yandex.net
Наши новостные каналы
Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.
Рекомендуем для вас

Обнаружен «призрачный» и совершенно неизвестный вид человечества
Эксперты говорят, что ветвь находилась… 40 000 лет в полной изоляции....

Наконец-то раскрыта тайна, на кого охотилась самая большая в истории акула
Надо сказать, что до этого ученые сильно ошибались по поводу меню мегалодона....

На орбите Венеры может скрываться очень серьезная угроза для Земли
Самое опасное, что ее почти невозможно увидеть с поверхности нашей планеты....

Разгадка тайны кругов на полях близка? Исследование 2025 года связывает аномалию со вспышками на Солнце
Геология, плазма, солнечный ветер и НЛО помогли объяснить феномен....

Вулканологи научились понимать тайные сигналы деревьев, предсказывающие извержения
Оказалось, что природный способ работает лучше любых спецприборов....

США грозит «астероидная слепота»: NASA не будет видеть особо опасные объекты
Были надежды на новый телескоп, но их в буквальном смысле убил новый президент....

«Мусор» из глубин Барсучьего логова оказался ценнейшими артефактами таинственного индейского племени
Археологи говорят: в горах Герреро будет еще масса сенсационных открытий....