
AI чет-ботовите не се совршени и повремено можат да „халуцинираат“, односно да даваат неточни одговори – кој предничи во тоа?
Големите јазични модели функционираат така што препознаваат обрасци и ја предвидуваат следната најверојатна реч во низата, а не така што навистина „знаат“ факти.
Проблем настанува кога моделот не може да пронајде јасен образец за одговор, па сепак се обидува да состави смислен текст врз основа на статистика, што може да доведе до неточни информации.
Компанијата „Легал Гардијан Дигитал“, која се занимава со СЕО оптимизација за правни фирми, анализираше колку често овие алатки грешат, задоволството на корисниците и стабилноста на работата на различни чет-ботови.
ChatGPT, Gemini, DeepSeek… кој AI најмногу „халуцинира“?
Резултатите покажуваат дека Google Gemini има највисока стапка на неточни одговори, со дури 32% „халуцинации“. Следува ChatGPT со околу 30%, додека најпрецизен е Perplexity AI со околу 13% погрешни одговори. DeepSeek и Grok исто така бележат релативно ниски стапки на грешки од 14% и 15%.
Кога станува збор за вкупниот впечаток на корисниците, DeepSeek и ChatGPT имаат највисока оценка на задоволство од 4,7 (од максимални 5), додека Perplexity AI следи со 4,6.
Во конечниот ранг, кој ги вклучува сите фактори, Perplexity AI се наоѓа на првото место со индекс 85, потоа следуваат Grok и DeepSeek. ChatGPT е во средината на листата со скор 50, Gemini има 41, додека Meta AI е на последното место со 37 поени.
