“Halucinacionet” e inteligjencës artificiale po kthehen në një nga problemet më të diskutuara globalisht, teksa sistemet automatike vazhdojnë të prodhojnë informacione të pasakta, por të paraqitura si të vërteta.
Një rast i fundit në SHBA e ka rikthyer këtë shqetësim në qendër të vëmendjes.
Një paralajmërim për erëra të forta, i gjeneruar nga inteligjenca artificiale për llogari të Shërbimit Kombëtar të Motit në Idaho, përfshinte emra qytetesh që në fakt nuk ekzistojnë.
Mes tyre përmendeshin “Orangeotild” dhe “Whata Bod”, duke ngritur pikëpyetje serioze mbi besueshmërinë e sistemeve të automatizuara.
Rasti tregon qartë një nga dobësitë kryesore të AI: aftësinë për të “shpikur” të dhëna kur nuk ka informacion të mjaftueshëm, fenomen i njohur si halucinacion.
Problemi bëhet edhe më i ndjeshëm kur këto sisteme përdoren në institucione publike apo për komunikime zyrtare, ku çdo pasaktësi mund të shkaktojë panik ose keqinformim.
Ekspertët paralajmërojnë se përdorimi i inteligjencës artificiale pa kontroll njerëzor mbart rreziqe reale, sidomos në sektorë kritikë si siguria, moti apo emergjencat.
Për këtë arsye, gjithnjë e më shumë theksohet nevoja për verifikim dhe mbikëqyrje njerëzore në çdo përmbajtje të gjeneruar nga AI.
Ngjarja në Idaho shihet si një sinjal i qartë se, pavarësisht avancimit të shpejtë, inteligjenca artificiale mbetet një mjet që kërkon kujdes të vazhdueshëm dhe nuk mund të konsiderohet burim i pakontestueshëm informacioni.















