AI aplikacija za transkripciju "halucinira" i dopisuje izmišljene rečenice

Aplikacija za transkripciju govora koja radi uz pomoć veštačke inteligencije Visper, tehnološkog džina OpenAI, sklona je da tokom rada dopisuje u tekst i cele izmišljene rečenice.
AI aplikacija za transkripciju "halucinira" i dopisuje izmišljene rečenice
Foto: Pixabay (ilustracija)
Više od deset softverskih inženjera, programera i akademskih istraživača navodi da taj novi alat kojeg je OpenAI pri lansiranju reklamirao da radi tačno poput čoveka, "halucinira" i dodaje reči.
 
Stručnjaci kažu da su takve izmišljotine problematične jer se Visper koristi u nizu industrija širom sveta za prevođenje i transkripciju intervjua, generisanje teksta u popularnim potrošačkim tehnologijama i kreiranje titlova za video snimke.
Još više zabrinjava, kažu oni, žurba medicinskih centara da koriste takve alate za transkripciju konsultacija pacijenata sa lekarima, uprkos upozorenjima OpenAI da se ta alatka ne sme koristiti u "domenima visokog rizika".
 
Puni obim problema je teško uočiti, ali istraživači i inženjeri kažu da su često nailazili na "halucinacije" Vispera. Jedan istraživač Univerziteta u Mičigenu koji je sproveo studiju je kazao da je našao "halucinacije" u čak 80 odsto transkripcija koje je pregledao.
 
Jedan inženjer za mašinsko učenje rekao je da je odmah otkrio "halucinacije" u polovini od preko 100 sati transkripcija Vispera koje je analizirao, a jedan programer da ih je našao u skoro svakom od 26.000 transkripata koje je napravio pomoću Vispera.
Takve greške mogu imati "teške posledice", posebno u bolnicama, rekla je Alondra Nelson koja je do prošle godine vodila Kancelariju Bele kuće za nauku i tehnologiju.
 
"Visper se koristi za kreiranje titlova za gluve i nagluve koji su posebno izloženi riziku od pogrešnih transkripcija jer nemaju način da identifikuju izmišljotine skrivene u tekstovima", rekao je Kristijan Vogler koji je gluv, a rukovodi programom pristupa tehnologiji Univerziteta Gallaudet.
 
Portparol OpenAI je rekao da kompanija kontinuirano proučava kako da smanji "halucinacije" i da ceni nalaze istraživača, dodajući da OpenAI u ažuriranje modela uključuje povratne informacije.
 
Profesori Allison Keneke sa Univerziteta Cornell i Mona Sloun sa Univerziteta Virdžinije ispitali su hiljade kratkih isečaka. 
 
U primerima koji su otkrili, jedan govornik je rekao: "On, dečak, hteo je - nisam baš siguran - da uzme kišobran", ali softver za transkripciju je dodao: "Uzeo je veliki deo krsta, mali, mali deo... Siguran sam da nije imao nož za terorizam pa je ubio veliki broj ljudi".
 
Govornik na drugom snimku opisao je "dve druge devojke i jednu damu", A Visper je izmislio dodatni komentar o rasi, dodavši: "dve druge devojke i jednu damu, hm, koje su bile crne".
 
U trećoj transkripciji, Visper je izmislio lek pod nazivom "hiperaktivirani antibiotici".
 
Istraživači nisu sigurni zašto Visper i slični alati "haluciniraju", ali programeri softvera kažu da se to obično dešava usled pauza u govoru ili mešanja zvukova ili muzike iz pozadine.

Komentari 0

    Nema komentara na izabrani dokument. Budite prvi koji će postaviti komentar.

Komentari čitalaca na objavljene vesti nisu stavovi redakcije portala 021 i predstavljaju privatno mišljenje anonimnog autora.

Redakcija 021 zadržava pravo izbora i modifikacije pristiglih komentara i nema nikakvu obavezu obrazlaganja svojih odluka.

Ukoliko je vaše mišljenje napisano bez gramatičkih i pravopisnih grešaka imaće veće šanse da bude objavljeno. Komentare pisane velikim slovima u većini slučajeva ne objavljujemo.

Pisanje komentara je ograničeno na 1.500 karaktera.

Napiši komentar


Preostalo 1500 karaktera

* Ova polja su obavezna

Ostalo iz kategorije Zabava - Zanimljivosti