Американская компания OpenAI на этой неделе изменила политику использования ChatGPT на основе искусственного интеллекта (ИИ), тем самым сняв запрет на применение чат-бота в военных целях. На отсутствие такой формулировки обратило внимание издание The Intercept .
В удаленном пункте на странице с правилами применения продукции OpenAI было прописано, что ИИ нельзя использовать для «деятельности, сопряженной с высоким риском физического вреда», в частности «разработки оружия» и «военных действий». Таким образом, чат-бот не могли использовать в своих целях министерства обороны и прочие военизированные госорганы. Однако фраза исчезла после 10 января.
Обновленная версия сохранила только положение о неприменении нейросети для причинения вреда себе или другим, включая производство или использование оружия. В OpenAI изменения мотивировали стремлением упростить свод правил к использованию продуктов, подчеркнув, что формулировка «не причинять вред себе и другим» остается максимально широкой.
По мнению экспертов, компания-разработчик постепенно двигается навстречу Пентагону и американской разведке. «Похоже, что новая политика использования ChatGPT избегает ассоциаций с военными контрактами и боевыми операциями, уделяя особое внимание оружию», — предположила член Международного комитета по контролю над роботизированным вооружением Люси Сучман.