ChatGPT, Copilot & сие: можем ли да им се доверим

Чатботовете с изкуствен интелект изкривяват новините и често не могат да отделят фактите от мненията, показва проучване на 22 водещи международни обществени медии.

Четири от най-често използваните системи с изкуствен интелект (ИИ) много често (в 45% от случаите) представят новините погрешно - независимо от езика или региона. Това показват резултатите от мащабно проучване на 22 международни медии, сред които и Дойче Веле. 

Журналисти от различни обществено-правни медии, след които британската БиБиСи, американската NPR и германската Дойче Веле, са оценили отговорите на четири от най-широко разпространените чатботове: ChatGPT, Microsoft Copilot, Google Gemini и Perplexity AI. Оценките са направени по критерии като точност, посочване на източник, контекст, качество на редакционните формулировки и способност за различаване на фактите от мненията.

Груби грешки

Проучването e установило, че в почти половината от всички отговори има по един много сериозен проблем, докато в 31 на сто от отговорите има тежки проблеми с посочването на източника, а в 20 процента - фактически грешки. Дойче веле например констатира, че в 53 процента от отговорите на чатбота има значителни проблеми, а в 29 на сто от случаите - специфични проблеми с точността.

Един пример за такава фактологична грешка: месец, след като Фридрих Мерц стана канцлер на Германия, AI асистенти са продължили да твърдят, че постът се заема от Олаф Шолц (предшественика на Мерц). Подобна грешка чатботове са допускали и със стария и новия генерален секретар на НАТО - Йенс Столтенберг и Марк Рюте.

Все по-голям проблем

Хората по света все по-често използват изкуствен интелект, за да стигнат до нужната им информация. По данни на Ройтерс, седем процента от потребителите на новини ги намират през чатботовете, а при младите под 25 години процентът е 15.

За инициаторите на проучването това е основание за загриженост. Техните разследвания показват еднозначно, че „пропуските не са единични случаи“, както казва Жан Филип де Тендер от Европейския съюз за радио и телевизия (ЕСРТ) , който е координатор на проучването. „Те са системни, трансгранични и многоезични и ние вярваме, че това застрашава общественото доверие. Ако хората не знаят на кого могат да вярват, в крайна сметка не се доверяват на никого и това може да навреди на демокрацията“, казва той.

Хуманоиден робот използва ChatGPT: Това ли е бъдещето?  Снимка: Dado Ruvic/REUTERS

Най-голямото такова проучване дотук

Изследването на 22-те медии е най-големият проект от такъв характер до момента и разширява информацията от проучване на БиБиСи от февруари т.г. И то показва, че в над половината от всички проверени отговори на ИИ има сериозни пропуски. В новото изследване медии от 18 държави и много езикови групи са използвали същата методика при анализа на 3 000 отговора на ИИ.

Задаваните въпроси са били от най-често засяганите в новините, като например „Какво представлява сделката с украинските редкоземни метали?" или „Може ли Тръмп да се кандидатира за трети мандат?". След това журналистите са проверили отговорите на базата на собствената си експертиза и професионални източници, без да знаят кой точно чатбот ги е предоставил. В сравнение с проучването на БиБиСи отпреди осем месеца се забелязва известно подобрение, но все още се допускат много грешки.

Най-зле се справя чатботът на Гугъл Gemini: в 72 процента от отговорите има проблеми с посочването на източниците. В проучването на БиБиСи много неточности са установени и в отговорите на Copilot и Gemini.

Трябва да бъдат взети мерки

Медиите, участвали в проучването, настояват за приемането на национални правила.  за действие. От Европейския съюз за радио и телевизия обещават да окажат натиск върху ЕС и националните регулатори „за прилагането на съществуващите закони за информационен интегритет, дигитални услуги и медиен плурализъм“. От организацията подчертават, че - в контекста на стремителното развитие на системите с изкуствен интелект - независимият надзор над тях в бъдеще трябва да има приоритет.

Междувременно ЕСРТ е инициирал, заедно с редица международни медии, кампанията „Facts In: Facts Out“. Тя цели да убеди компаниите в областта на изкуствения интелект да поемат по-голяма отговорност по въпроса за разпространението на новини чрез техните продукти.

 

Източник: http://www.dw.com

Видеа по темата

Facebook коментари

Коментари в сайта

Трябва да сте регистриран потребител за да можете да коментирате. Правилата - тук.
Последни новини