Чатботовете с изкуствен интелект изкривяват новините и често не могат да отделят фактите от мненията, показва проучване на 22 водещи международни обществени медии.
Четири от най-често използваните системи с изкуствен интелект (ИИ) много често (в 45% от случаите) представят новините погрешно - независимо от езика или региона. Това показват резултатите от мащабно проучване на 22 международни медии, сред които и Дойче Веле.
Журналисти от различни обществено-правни медии, след които британската БиБиСи, американската NPR и германската Дойче Веле, са оценили отговорите на четири от най-широко разпространените чатботове: ChatGPT, Microsoft Copilot, Google Gemini и Perplexity AI. Оценките са направени по критерии като точност, посочване на източник, контекст, качество на редакционните формулировки и способност за различаване на фактите от мненията.
Груби грешки
Проучването e установило, че в почти половината от всички отговори има по един много сериозен проблем, докато в 31 на сто от отговорите има тежки проблеми с посочването на източника, а в 20 процента - фактически грешки. Дойче веле например констатира, че в 53 процента от отговорите на чатбота има значителни проблеми, а в 29 на сто от случаите - специфични проблеми с точността.
Един пример за такава фактологична грешка: месец, след като Фридрих Мерц стана канцлер на Германия, AI асистенти са продължили да твърдят, че постът се заема от Олаф Шолц (предшественика на Мерц). Подобна грешка чатботове са допускали и със стария и новия генерален секретар на НАТО - Йенс Столтенберг и Марк Рюте.
Все по-голям проблем
Хората по света все по-често използват изкуствен интелект, за да стигнат до нужната им информация. По данни на Ройтерс, седем процента от потребителите на новини ги намират през чатботовете, а при младите под 25 години процентът е 15.
За инициаторите на проучването това е основание за загриженост. Техните разследвания показват еднозначно, че „пропуските не са единични случаи“, както казва Жан Филип де Тендер от Европейския съюз за радио и телевизия (ЕСРТ) , който е координатор на проучването. „Те са системни, трансгранични и многоезични и ние вярваме, че това застрашава общественото доверие. Ако хората не знаят на кого могат да вярват, в крайна сметка не се доверяват на никого и това може да навреди на демокрацията“, казва той.


Хуманоиден робот използва ChatGPT: Това ли е бъдещето? Снимка: Dado Ruvic/REUTERS
Най-голямото такова проучване дотук
Изследването на 22-те медии е най-големият проект от такъв характер до момента и разширява информацията от проучване на БиБиСи от февруари т.г. И то показва, че в над половината от всички проверени отговори на ИИ има сериозни пропуски. В новото изследване медии от 18 държави и много езикови групи са използвали същата методика при анализа на 3 000 отговора на ИИ.
Задаваните въпроси са били от най-често засяганите в новините, като например „Какво представлява сделката с украинските редкоземни метали?" или „Може ли Тръмп да се кандидатира за трети мандат?". След това журналистите са проверили отговорите на базата на собствената си експертиза и професионални източници, без да знаят кой точно чатбот ги е предоставил. В сравнение с проучването на БиБиСи отпреди осем месеца се забелязва известно подобрение, но все още се допускат много грешки.
Най-зле се справя чатботът на Гугъл Gemini: в 72 процента от отговорите има проблеми с посочването на източниците. В проучването на БиБиСи много неточности са установени и в отговорите на Copilot и Gemini.
Трябва да бъдат взети мерки
Медиите, участвали в проучването, настояват за приемането на национални правила. за действие. От Европейския съюз за радио и телевизия обещават да окажат натиск върху ЕС и националните регулатори „за прилагането на съществуващите закони за информационен интегритет, дигитални услуги и медиен плурализъм“. От организацията подчертават, че - в контекста на стремителното развитие на системите с изкуствен интелект - независимият надзор над тях в бъдеще трябва да има приоритет.
Междувременно ЕСРТ е инициирал, заедно с редица международни медии, кампанията „Facts In: Facts Out“. Тя цели да убеди компаниите в областта на изкуствения интелект да поемат по-голяма отговорност по въпроса за разпространението на новини чрез техните продукти.