OpenAI запретила ChatGPT консультировать по праву, медицине и финансам
- Семиднeвная Панорама
Компания OpenAI ввела новые правила, запрещающие использовать ChatGPT для консультаций по юридическим, медицинским и другим чувствительным темам. Об этом говорится в обновлённой политике использования сервисов, опубликованной на официальном сайте компании, пишет РБК.
Согласно документу, теперь ChatGPT не может давать советы, касающиеся права, медицины, финансов, трудоустройства, кредитования, страхования, образования, вопросов жилья и национальной безопасности. Также под запретом консультации по миграционным вопросам и «другим важным государственным услугам».
«Мы требуем от пользователей надлежащего использования наших сервисов, и нарушение или несоблюдение наших правил и мер безопасности может привести к потере доступа к нашим системам или другим мерам наказания», — отмечается в заявлении OpenAI.
Компания уточнила, что её сервисы нельзя применять для:
- угроз, запугивания, преследования или клеветы;
- для пропаганды самоубийства и расстройств пищевого поведения;
- тем, связанных с сексуальным насилием, терроризмом, оружием и азартными играми.
Кроме того, OpenAI запретила использовать технологии компании для создания изображений людей без их согласия — включая генерацию реалистичных портретов и имитацию голосов. Также нельзя прогнозировать риск совершения преступления кем-либо исключительно на основании его личностных характеристик.
Отдельный пункт касается защиты несовершеннолетних: запрещено комментировать их внешность, пропагандировать среди них вредные привычки или предоставлять доступ к контенту, имеющему возрастные ограничения.
14 октября глава OpenAI Сэм Альтман заявил в X (бывший Twitter), что компания планирует разрешить эротический контент для взрослых пользователей. «В декабре по мере более полного внедрения возрастного ценза и в рамках нашего принципа “относитесь к взрослым пользователям как к взрослым”, мы разрешим еще больше, например, эротику для верифицированных взрослых», — написал Альтман.
Ранее, в августе, The Wall Street Journal сообщала, что ChatGPT стал чаще выдавать бредовые и ложные ответы, из-за чего некоторые пользователи жаловались на нелогичное поведение нейросети. Представитель OpenAI Ник Терли заявил, что подобные случаи редки, а компания консультируется с медицинскими экспертами, чтобы снизить риски.
Оксана Андрущак
Читайте также:
