А Розслідування часу викрив більш туманну сторону індустрії чат-ботів штучного інтелекту, підкресливши, як принаймні один стартап використовував сумнівні практики для вдосконалення своїх технологій.
Опублікований у середу звіт Time зосереджений на підтримуваному Microsoft OpenAI та його чат-бот ChatGPT, технологія, яка нещодавно привернула велику увагу завдяки неймовірній здатності створювати надзвичайно природний розмовний текст.
Рекомендовані відео
Дослідження Time виявило, що для навчання технології штучного інтелекту OpenAI скористався послугами команди з Кенії, щоб дослідити текст, який включав тривожні теми, такі як сексуальне насильство над дітьми, зоофілія, вбивство, самогубство, тортури, самоушкодження та інцест. А за свої зусилля з позначення огидного вмісту багато хто з команди отримували менше 2 доларів на годину.
Пов'язані
- Google Bard тепер може говорити, але чи може він заглушити ChatGPT?
- ChatGPT: останні новини, суперечки та поради, які вам потрібно знати
- Рекордне зростання ChatGPT було повалено новою вірусною програмою
Робота, яка розпочалася в листопаді 2021 року, була необхідною, оскільки попередник ChatGPT, GPT-3, хоч і був вражаючим, мав тенденцію викидати з образливого вмісту, оскільки його навчальний набір даних було зібрано шляхом збирання сотень мільярдів слів з усіх куточків Інтернет.
Команда з Кенії, керована фірмою Sama з Сан-Франциско, позначатиме образливий вміст, щоб допомогти навчати чат-бота OpenAI, тим самим покращуючи його набір даних і зменшуючи ймовірність будь-яких небажаних вихід.
Time повідомляє, що всі четверо співробітників Sama, з якими було проведено інтерв’ю, описали психічні травми через свою роботу. Сама запропонував консультації, але працівники сказали, що вони були неефективними та проводилися рідко через вимоги роботи, хоча представник Sama сказав Time, що терапевти були доступні будь-коли час.
Один працівник розповів Time, що читання шокуючого матеріалу іноді здавалося «катуванням», додавши, що до кінця тижня вони відчували себе «збентеженими».
У лютому 2022 року ситуація набула ще більш темного повороту для Sama, коли OpenAI запустив окремий проект, не пов’язаний із ChatGPT, який вимагав від команди з Кенії збирати зображення сексуального та насильницького характеру. OpenAI повідомила Time, що ця робота потрібна для того, щоб зробити її інструменти ШІ безпечнішими.
За кілька тижнів після запуску цього іміджевого проекту тривожний характер завдань спонукав Sama скасувати всі свої контракти з OpenAI, хоча Time припускає, що це також могло бути викликано PR-наслідками звіту на подібну тему, який він опублікував приблизно Facebook приблизно в той самий час.
Open AI повідомив Time, що було «непорозуміння» щодо характеру зображень, які вони попросили Sama збирати, наполягаючи на тому, що він не просив найекстремальніших зображень і не переглядав жодного, що було надісланий.
Але розірвання контрактів вплинуло на засоби до існування працівників: частина команди в Кенії втратила роботу, а інших перевели на низькооплачувані проекти.
Розслідування часу пропонує незручний, але важливий погляд на те, яку роботу виконують чат-боти на основі штучного інтелекту, які нещодавно так захопили індустрію технологій.
Незважаючи на те, що ця технологія є трансформаційною та потенційно корисною, ця технологія, безсумнівно, коштує людей і породжує низку етичних запитань про те, як працюють компанії розробляючи свої нові технології, і ширше про те, як багатші країни продовжують передавати менш бажані завдання біднішим націям за нижчі фінансові витрати.
Стартапи, що стоять за цією технологією, будуть піддаватися більш прицільному контролю в найближчі місяці та роки, тому їм було б добре переглянути та вдосконалити свою практику якнайшвидше.
Digital Trends звернулися до OpenAI для коментарів щодо звіту Time, і ми оновимо цю статтю, коли отримаємо відповідь.
Рекомендації редакції
- Найкращі інструменти для редагування відео AI
- Розробник ChatGPT OpenAI стикається з розслідуванням FTC щодо законів про захист прав споживачів
- Нова компанія ШІ Ілона Маска прагне «розуміти Всесвіт»
- Трафік веб-сайту ChatGPT впав вперше
- Вчені кажуть, що відкриття ШІ можуть відбуватися через мозок бджіл
Оновіть свій спосіб життяDigital Trends допомагає читачам стежити за динамічним світом технологій завдяки всім останнім новинам, цікавим оглядам продуктів, проникливим редакційним статтям і унікальним у своєму роді коротким оглядам.