GLASGOW - Umelá inteligencia nehalucinuje, ale vymýšľa si hlúposti, uvádza nová štúdia zo Škótska. Informuje o tom Futurism.com.
Štúdiu trojice výskumníkov z Glasgowskej univerzity začiatkom júna zverejnil odborný časopis Ethics and Information Technology. Odborníci sa v nej venovali nezmyslom vytvoreným nástrojom ChatGPT, ktoré v niektorých prípadoch dostali metaforickú nálepku "halucinácia".
Nezmysly vytvorené umelou inteligenciou (AI) by sa však podľa výskumníkov nemali označovať metaforicky, ale pravým menom – hlúposti. Trvajú na tom, že AI nemôže halucinovať, pretože halucinácia je prelud založený na klame zmyslov, teda niečoho, čo umelá inteligencia ako softvér nemá.
"Stroje sa nesnažia odovzdať informáciu o niečom, čomu veria alebo čo vnímajú. Nepresnosti nevznikajú z dôvodu nesprávnej interpretácie alebo halucinácie. Ako sme (v štúdii) uviedli, vôbec sa nesnažia odovzdať nejakú informáciu. Vymýšľajú si hlúposti," uvádza štúdia.
Odborníci vychádzajú z koncepcie Harryho Frankfurta, ktorý takéto hlúposti definoval ako "ľubovoľný výrok, pri ktorom autorovi nezáleží na výroku samotnom ani na jeho pravdivosti".
Frankfurt hlúposti rozdeľuje na dva poddruhy – "zámerné" vytvorené s nejakým postranným úmyslom a "nezámerné" vytvorené bez postranného úmyslu. Autori štúdie tvrdia, že ChatGPT vytvára prinajlepšom nezámerné hlúposti, pretože sa nesnaží zavádzať používateľov, ale vytvoriť prirodzene znejúci text.
Závery štúdie sú zaujímavé najmä v súvislosti s informáciami o absurdných a nebezpečných radách umelej inteligencie spoločnosti Google, ktoré sa objavili počas uplynulých týždňov. Tá radila používateľom, aby jedli kamene, ochutili si pizzu netoxickým lepidlom alebo aby depresiu liečili skokom z mosta.
Spoločnosť Google a jej umelá inteligencia sa na sociálnych sieťach stala terčom mohutnej vlny posmechu a kritiky. Spoločnosť však kritizované výstupy podľa televízie BBC označila za ojedinelé zlyhania a trvá na tom, že drvivá väčšina výstupov jej AI je kvalitná.
Pre používanie spravodajstva Netky.sk je potrebné povoliť cookies