Сам OpenAI не може визначити, що було написано штучним інтелектом

Через низьку точність OpenAI закрив інструмент, який мав відрізнити текст, написаного людиною, від тексту, згенерованого штучним інтелектом. У оновленому блозі OpenAI повідомила, що вирішила закрити свій AI classifier з 20 липня. «Ми працюємо над тим, щоб врахувати відгуки, і зараз вивчаємо ефективніші методи перевірки для тексту», – заявили в компанії.
Після того, як ChatGPT від OpenAI увірвався на сцену і став одним з найшвидших додатків за всю історію, люди щосили намагалися освоїти цю технологію. Декілька секторів підняли тривогу з приводу тексту та малюнків, створених ШІ, особливо викладачі, які турбувалися, що учні більше не навчатимуться, і просто дозволять ChatGPT писати домашнє завдання. Школи Нью-Йорка навіть заборонили доступ до ChatGPT на шкільній території через побоювання щодо точності, безпеки та шахрайства.
OpenAI також нещодавно втратив свою довіру та лідерство в галузі безпеки в той час, коли Федеральна торгова комісія спостерігає за OpenAI, щоб дізнатися, як він перевіряє інформацію та дані. OpenAI відмовився це коментувати, відписавшись про це лише повідомленням у блозі.
Схоже відрізняти текст прийдеться самим людям, ґрунтуючись лише на власному досвіді.
Джерело: https://www.theverge.com/2023/7/25/23807487/openai-ai-generated-low-accuracy?ref=thefuturist
#відрізнити_текст #ШІ #захист_інформації #technologycenter


