banner

Блог

Dec 10, 2023

OpenAI использовала кенийских рабочих менее чем за 2 доллара в час: эксклюзив

Предупреждение о содержании: эта история содержит описания сексуального насилия.

ChatGPT был назван одной из самых впечатляющих технологических инноваций 2022 года после его выпуска в ноябре прошлого года. Мощный чат-бот с искусственным интеллектом (ИИ) может генерировать текст практически на любую тему: от шекспировского сонета, переосмысленного в стиле «Меган Ти Жеребец», до сложных математических теорем, описанных на языке, понятном пятилетнему ребенку. За неделю у него было более миллиона пользователей.

Сообщается, что создатель ChatGPT, OpenAI, сейчас ведет переговоры с инвесторами о привлечении средств на сумму 29 миллиардов долларов, включая потенциальные инвестиции Microsoft в 10 миллиардов долларов. Это сделало бы OpenAI, основанную в Сан-Франциско в 2015 году с целью создания сверхразумных машин, одной из самых ценных компаний в мире, занимающихся искусственным интеллектом.

Но история успеха связана не только с гением Кремниевой долины. В своем стремлении сделать ChatGPT менее токсичным OpenAI использовала кенийских рабочих, работающих на аутсорсинге и зарабатывающих менее 2 долларов в час, как показало расследование TIME.

Эта работа была жизненно важна для OpenAI. Предшественник ChatGPT, GPT-3, уже продемонстрировал впечатляющую способность связывать предложения вместе. Но продать его было сложно, поскольку приложение также было склонно к высказываниям жестокого, сексистского и расистского характера. Это связано с тем, что ИИ был обучен на сотнях миллиардов слов, взятых из Интернета — огромного хранилища человеческого языка. Этот огромный набор обучающих данных был причиной впечатляющих лингвистических возможностей GPT-3, но также, возможно, был его самым большим проклятием. Поскольку некоторые части Интернета полны токсичности и предвзятости, не было простого способа очистить эти разделы обучающих данных. Даже команде из сотен людей потребовались бы десятилетия, чтобы вручную просмотреть огромный набор данных. Только создав дополнительный механизм безопасности на базе искусственного интеллекта, OpenAI сможет обуздать этот вред, создав чат-бота, пригодного для повседневного использования.

Читать далее: Чат-боты с искусственным интеллектом становятся лучше. Но интервью с ChatGPT раскрывает их пределы

Чтобы построить эту систему безопасности, OpenAI воспользовалась опытом таких компаний, занимающихся социальными сетями, как Facebook, которые уже показали возможность создания ИИ, способного обнаруживать токсичные высказывания, такие как разжигание ненависти, и помогать удалять их со своих платформ. Идея была проста: кормить ИИ отмеченными примерами насилия, разжигания ненависти и сексуального насилия, и этот инструмент сможет научиться обнаруживать эти формы токсичности в дикой природе. Этот детектор будет встроен в ChatGPT, чтобы проверять, не отражает ли он токсичность обучающих данных, и отфильтровывать их еще до того, как они достигнут пользователя. Это также может помочь удалить токсичный текст из наборов обучающих данных будущих моделей ИИ.

Чтобы получить эти ярлыки, OpenAI, начиная с ноября 2021 года, отправила десятки тысяч фрагментов текста аутсорсинговой фирме в Кении. Большая часть этого текста, похоже, была взята из самых темных уголков Интернета. В некоторых из них подробно описывались такие ситуации, как сексуальное насилие над детьми, зоофилия, убийство, самоубийство, пытки, членовредительство и инцест.

Аутсорсинговым партнером OpenAI в Кении была компания Sama, базирующаяся в Сан-Франциско, которая нанимает сотрудников в Кении, Уганде и Индии для маркировки данных для клиентов Кремниевой долины, таких как Google, Meta и Microsoft. Sama позиционирует себя как компанию, занимающуюся «этическим искусственным интеллектом», и утверждает, что помогла более 50 000 человек выбраться из бедности.

Маркировщикам данных, нанятым Sama от имени OpenAI, платили зарплату в размере от 1,32 до 2 долларов в час в зависимости от стажа и производительности. Для этой статьи TIME просмотрел сотни страниц внутренних документов Sama и OpenAI, включая платежные ведомости работников, и взял интервью у четырех сотрудников Sama, работавших над проектом. Все сотрудники говорили на условиях анонимности, опасаясь за свои средства к существованию.

История работников, которые сделали ChatGPT возможным, дает возможность взглянуть на условия в этой малоизвестной части индустрии искусственного интеллекта, которая, тем не менее, играет важную роль в усилиях по обеспечению безопасности систем искусственного интеллекта для общественного потребления. «Несмотря на основополагающую роль, которую играют эти специалисты по обогащению данных, все больше исследований выявляют нестабильные условия труда, с которыми сталкиваются эти работники», — говорит Партнерство по ИИ, коалиция организаций ИИ, в которую входит OpenAI. «Это может быть результатом попыток скрыть зависимость ИИ от этой огромной рабочей силы, когда празднуют повышение эффективности технологий. (OpenAI не раскрывает имена аутсорсеров, с которыми она сотрудничает, и неясно, работала ли OpenAI с другими фирмами по маркировке данных, помимо Sama, в этом проекте.)

ДЕЛИТЬСЯ