Докато в миналото потребителите разчитаха на търсачки като Google за проучване на статии и блогове, днес масовото предпочитание се измества към директните отговори на изкуствения интелект. Лидер в тази ниша е ChatGPT, но с нарастващата му популярност се засилват и опасенията относно безкритичното доверие, което хората му гласуват.
Нови данни сочат, че технологията далеч не е безгрешна, особено когато става въпрос за факти, които трудно могат да бъдат проверени от обикновения потребител.
Последният анализ на авторитетното издание The Guardian осветлява тревожна тенденция: макар моделът да се справя добре с общоизвестни факти, той показва сериозни дефекти при по-специфични запитвания.
Оказва се, че в 9 от 12 проведени теста, платформата е предоставила данни, извлечени директно от Grokipedia. Този ресурс представлява генерирана от изкуствен интелект версия на Wikipedia, базирана на модела на Илон Мъск – Grok, и е известна с липсата на човешка редакция и проверка на фактите.
Grokipedia често е критикувана за разпространение на радикални политически наративи и недоказани твърдения. Фактът, че OpenAI позволява на своята система да използва подобни източници, поставя под съмнение ефективността на техните алгоритми за безопасност и филтриране на съдържанието.
Когато софтуерът предлага неточни или силно пристрастни отговори, той не само подкопава собствения си авторитет, но и активно съдейства за разпространението на дезинформация и опасни конспиративни теории. Този структурен проблем подчертава нуждата от повишено внимание при използването на AI за информационни цели.
Все още няма коментари. Бъдете първи!