banner

Блог

Sep 17, 2023

Языковые инструменты ChatGPT и AI запрещены конференцией AI для написания статей

Джеймс Винсент, старший репортер, который в течение восьми лет освещал вопросы искусственного интеллекта, робототехники и многого другого в The Verge.

Одна из самых престижных в мире конференций по машинному обучению запретила авторам использовать инструменты искусственного интеллекта, такие как ChatGPT, для написания научных статей, что спровоцировало дебаты о роли текста, сгенерированного искусственным интеллектом, в академических кругах.

Международная конференция по машинному обучению (ICML) объявила об этой политике ранее на этой неделе, заявив: «Документы, включающие текст, сгенерированный на основе крупномасштабной языковой модели (LLM), такой как ChatGPT, запрещены, если созданный текст не представлен как часть экспериментальный анализ статьи». Эта новость вызвала широкую дискуссию в социальных сетях, где ученые и исследователи искусственного интеллекта как защищали, так и критиковали эту политику. Организаторы конференции отреагировали публикацией более длинного заявления, объясняющего их точку зрения. (ICML ответил на запросы The Verge о комментариях, направив нас к тому же заявлению.)

По мнению ICML, появление общедоступных языковых моделей искусственного интеллекта, таких как ChatGPT — чат-бот общего назначения с искусственным интеллектом, запущенный в сети в ноябре прошлого года, — представляет собой «захватывающее» развитие, которое, тем не менее, сопровождается «непредвиденными последствиями [и] оставшимися без ответа вопросами». ICML сообщает, что они включают в себя вопросы о том, кому принадлежат результаты таких систем (они обучены на общедоступных данных, которые обычно собираются без согласия и иногда извергают эту информацию дословно) и следует ли считать текст и изображения, созданные ИИ, «новыми или простыми». производные от существующей работы».

Инструменты для письма с искусственным интеллектом — это просто помощники или нечто большее?

Последний вопрос связан с непростой дискуссией об авторстве — то есть о том, кто «пишет» текст, сгенерированный ИИ: машина или человек-контролер? Это особенно важно, учитывая, что ICML запрещает только текст, «полностью созданный» ИИ. Организаторы конференции заявляют, что не запрещают использование таких инструментов, как ChatGPT, «для редактирования или полировки авторского текста», и отмечают, что многие авторы уже использовали для этой цели «полуавтоматические инструменты редактирования», такие как программа для исправления грамматики Grammarly.

«Несомненно, на эти и многие другие вопросы со временем будут даны ответы, поскольку эти крупномасштабные генеративные модели получат более широкое распространение. Однако у нас пока нет четких ответов ни на один из этих вопросов», — пишут участники конференции. организаторы.

В результате ICML заявляет, что запрет на текст, сгенерированный искусственным интеллектом, будет пересмотрен в следующем году.

Однако вопросы, которые решает ICML, решить нелегко. Доступность инструментов искусственного интеллекта, таких как ChatGPT, вызывает замешательство у многих организаций, некоторые из которых ответили собственными запретами. В прошлом году сайт вопросов и ответов по программированию Stack Overflow запретил пользователям отправлять ответы, созданные с помощью ChatGPT, а Департамент образования Нью-Йорка только на этой неделе заблокировал доступ к этому инструменту для всех в своей сети.

Языковые модели искусственного интеллекта — это инструменты автозаполнения, которым не присуще чувство реальности.

В каждом случае существуют разные опасения по поводу вредного воздействия текста, сгенерированного ИИ. Одна из наиболее распространенных заключается в том, что выходные данные этих систем просто ненадежны. Эти инструменты искусственного интеллекта представляют собой обширные системы автозаполнения, обученные предсказывать, какое слово следует за следующим в любом предложении. По сути, у них нет жестко закодированной базы данных «фактов», на которую можно было бы опереться, — есть только способность писать правдоподобно звучащие утверждения. Это означает, что у них есть тенденция выдавать ложную информацию за правду, поскольку то, звучит ли данное предложение правдоподобно, не гарантирует его достоверность.

В случае с запретом ICML на текст, сгенерированный ИИ, еще одной потенциальной проблемой является различие между текстом, который был только «отшлифован» или «отредактирован» ИИ, и тем, что «полностью создано» с помощью этих инструментов. В какой момент ряд небольших исправлений под руководством ИИ представляют собой более масштабную переработку? Что, если пользователь попросит инструмент искусственного интеллекта кратко изложить свою статью? Считается ли это свежесозданным текстом (поскольку текст новый) или простой доработкой (поскольку это краткое изложение слов, написанных автором)?

ДЕЛИТЬСЯ