ChatGPT помилково назвав чоловіка винним у масовому вбивстві

Реклама

ЗАРАЗ ЧИТАЮТЬ

Час читання: < 1 хв.

OpenAI зіткнулася із ще однією скаргою через «галюцинації» чат-бота ChatGPT. Це деякі «стани», у яких нейромережа видає хибну інформацію користувачам як даність.

Австрійська правозахисна група Noyb подала скаргу на OpenAI після того, як ChatGPT звинуватив громадянина Норвегії у вбивстві, причому двох своїх дітей. При спілкуванні з ChatGPT користувач задав питання про себе, і програма помилково відповіла, що він був засуджений до 21 року в’язниці за вбивство своїх дітей і спробу вбивства третього.

Реклама

Noyb стверджує, що така відповідь порушує GDPR, Загальний регламент із захисту даних Євросоюзу, оскільки персональні дані мають бути точними. Експерти вважають, що OpenAI намагається зняти з себе відповідальність, обмовляючись про те, що боту можна припускатися помилок, але цього недостатньо.

При цьому в минулому такі галюцинації ChatGPT призводили до звинувачень людей у ​​шахрайстві, жорстокому поводженні з дітьми та сексуальних домаганнях.

«Показувати користувачам ChatGPT крихітне застереження, що чат-бот може помилятися, явно недостатньо. Не можна просто розповсюджувати неправдиву інформацію і наприкінці додати невелике застереження про те, що все сказане вами може виявитися неправдою…», — зазначив юрист Noyb із захисту даних Йоаким Седерберг.

Реклама

Вас також можуть зацікавити новини:

Не пропустіть

СВІЖІ НОВИНИ