„OpenAI“ ką tik paskelbė mokslinį straipsnį, įrodantį, kad dirbtinis intelektas niekada negalės nustoti haliucinuoti.
„OpenAI“ ką tik paskelbė mokslinį straipsnį, įrodantį, kad dirbtinis intelektas niekada negalės nustoti haliucinuoti. Jūs pasitikėjote įrankiu, kuriam matematiškai garantuota išgalvoti informaciją.
Štai ką iš tikrųjų atskleidžia jų tyrimas:
Tyrėjų komanda iš „OpenAI“ ir „Georgia Tech“ nustatė, kad kalbos modeliai haliucinuoja todėl, kad mokymas aktyviai skatina spėjimą, o ne nežinomybės pripažinimą.
Įsivaizduokite studentą per kelių pasirinkimų egzaminą, kuris visiškai nežino atsakymo: spėjimas suteikia jam šansą, o nieko neparašius garantuotai gaunamas nulis.
AI modeliai mokomi taip pat. Kažką išgalvoti įvertinama geriau nei pasakyti „aš nežinau“.
Tyrėjai tai įrodė matematiškai. Kai AI negali patikimai atskirti fakto nuo fikcijos savo mokymo duomenyse, haliucinacijos tampa nuspėjamu rezultatu dėl to, kaip jis buvo sukurtas.
Trys veiksniai daro tai visiškai neišvengiamą
- Žinių spragos — kai kurios temos beveik nepasirodė mokymo duomenyse, todėl modelis užpildo spragas
- Architektūriniai apribojimai — tam tikros problemos yra už dabartinių modelių galimybių ribų
- Neatsakomi klausimai — kai kurių dalykų joks AI niekada negalės patikrinti
Išvados nuo čia tampa dar labiau neraminančios.
Pažangiausi „OpenAI“ modeliai iš tikrųjų haliucinuoja dažniau nei senesni.
Jų ankstyviausias samprotavimo modelis suklysdavo 16 % atvejų, kai buvo klausiama apie pagrindinę viešą informaciją. Kita karta šoktelėjo iki 33 %. Naujausias jų leidimas pasiekė 48 %.
Kiekviena nauja versija tapo protingesnė ir galingesnė, tačiau kartu ir geriau skambanti teisingai net tada, kai buvo visiškai neteisinga.
Konkuruojantys modeliai iš „Anthropic“ ir „DeepSeek“ buvo testuojami paprastais faktiniais klausimais ir abu pateikė labai neteisingus atsakymus. Ši problema priklauso visai industrijai.
Straipsnyje kritikuojami du įsitikinimai, kuriuos industrija nuolat kartoja ↓
- Kad tikslesnis modelis galiausiai nustos haliucinuoti. Taip nebus, nes kai kurie klausimai paprasčiausiai yra neatsakomi, nesvarbu, koks galingas modelis taps.
- Kad haliucinacijos yra neišvengiama AI naudojimo kaina. Jos nebūtinai turi būti, nes modeliai gali pasakyti „aš nesu tikras“. Problema ta, kad vertinimo sistemos nesuteikia jokio kredito už sąžiningumą, todėl spėjimas tampa protingesniu pasirinkimu.
Sprendimas nėra naujas modelis ar daugiau duomenų — reikia pakeisti tai, kaip AI yra vertinamas.
Šiuo metu etalonai labiau apdovanoja užtikrintą neteisingą atsakymą nei sąžiningą „aš nesu tikras“, ir kol tai nepasikeis, kiekviena laboratorija pasaulyje ir toliau kurs modelius, kurie spėlioja.
Haliucinacijos niekur nedings. Kuo modelis tampa protingesnis, tuo svarbiau tampa kurti sistemas, kurios į tai atsižvelgia.
Matematika nemeluoja, o vienintelis likęs kintamasis yra tai, ar industrija įsiklausys.
Redakcijos komentaras:
Šis tyrimas primena svarbią tiesą: dirbtinis intelektas nėra neklystantis žinių šaltinis. Net ir pažangiausi modeliai gali pateikti įtikinamai skambančią, bet neteisingą informaciją. Tai reiškia, kad AI turėtų būti naudojamas kaip pagalbinė priemonė, o ne galutinis autoritetas.
Vartotojams būtina tikrinti svarbius faktus, o technologijų kūrėjams – keisti vertinimo sistemas, kad sąžiningas „nežinau“ būtų vertinamas labiau nei spėjimas. Tik taip galima sumažinti klaidinančios informacijos riziką.
Futuro Live Vilnius – pažangus renginių centras, siūlantis modernias technologijas ir interaktyvias patirtis, puiki vieta verslo ir pramogų renginiams, skatinanti kūrybiškumą ir bendradarbiavimą.