post_add Добави новина
ChatGPT под прицел: Рискове от дезинформация и използване на непроверени източници
Технологии 26.01.2026

ChatGPT под прицел: Рискове от дезинформация и използване на непроверени източници

Разследване разкрива, че популярният чатбот често черпи данни от генерирани от изкуствен интелект платформи без човешки контрол.

Докато в миналото потребителите разчитаха на търсачки като Google за проучване на статии и блогове, днес масовото предпочитание се измества към директните отговори на изкуствения интелект. Лидер в тази ниша е ChatGPT, но с нарастващата му популярност се засилват и опасенията относно безкритичното доверие, което хората му гласуват.

Нови данни сочат, че технологията далеч не е безгрешна, особено когато става въпрос за факти, които трудно могат да бъдат проверени от обикновения потребител.

Последният анализ на авторитетното издание The Guardian осветлява тревожна тенденция: макар моделът да се справя добре с общоизвестни факти, той показва сериозни дефекти при по-специфични запитвания.

Оказва се, че в 9 от 12 проведени теста, платформата е предоставила данни, извлечени директно от Grokipedia. Този ресурс представлява генерирана от изкуствен интелект версия на Wikipedia, базирана на модела на Илон МъскGrok, и е известна с липсата на човешка редакция и проверка на фактите.

Grokipedia често е критикувана за разпространение на радикални политически наративи и недоказани твърдения. Фактът, че OpenAI позволява на своята система да използва подобни източници, поставя под съмнение ефективността на техните алгоритми за безопасност и филтриране на съдържанието.

Когато софтуерът предлага неточни или силно пристрастни отговори, той не само подкопава собствения си авторитет, но и активно съдейства за разпространението на дезинформация и опасни конспиративни теории. Този структурен проблем подчертава нуждата от повишено внимание при използването на AI за информационни цели.

history

Последна актуализация

27.01.2026 |
schedule 13:12
Росен Димитров

Росен Димитров

verified Автор

Коментари (0)

Все още няма коментари. Бъдете първи!

Добави коментар