Cekin.si
Umetna inteligenca
Gospodarstvo

Ko umetna inteligenca proizvaja 'smeti'

M.M.
11. 12. 2025 03.30
0

Prihodnost umetne inteligence je ogrožena, če se osredotočimo na 'AI smeti' namesto na revolucionarne izume. Edwin Chen iz podjetja Surge AI opozarja: AI se prilagaja lestvicam ocenjevanja in všečnim odgovorom, ne resnici. Kaj to pomeni za vas in kako pravilno testirati modele?

Vas skrbi, da se orodja umetne inteligence oddaljujejo od reševanja največjih svetovnih izzivov in se namesto tega osredotočajo na ustvarjanje vsebine, ki je samo bleščeča in želi na hitro zadovoljiti uporabnike? 

Edwin Chen, vizionar in CEO podjetja Surge AI, opozarja prav na to.

Chen pravi, da "namesto da bi umetno inteligenco gradili za zdravljenje raka ali razumevanje vesolja, jo vse bolj optimiziramo za AI smeti", poroča spletna stran Business Insider.

Kaj so AI smeti?

Izraz 'AI smeti' opisuje površne in nepraktične odzive, ki na videz morda zvenijo dobro, a dejansko nimajo prave vsebine. Zato "modele učimo, da lovijo dopamin namesto resnice", kar pomeni, da AI postaja nekakšen 'razvajenec', ki nam ponuja, kar mu je všeč, namesto tistega, kar dejansko mi potrebujemo. 

Ta trend ni le nevaren, ampak pomeni tudi zapravljeno priložnost za celotno človeštvo. Moramo se vprašati, ali je to res pot, po kateri želimo, da se razvija tehnologija, ki bi nam lahko rešila planet in spremenila življenje - seveda na bolje? 

Umetna inteligenca in voda
Umetna inteligenca in vodaFOTO: Adobe Stock

Zakaj tako treniramo umetno inteligenco?

V rokah imamo torej orodje, ki bi lahko rešilo številne težave na svetu. Zakaj se potem dogaja, da z njim ravnamo tako nespametno?

Razlog za to so tako imenovane lestvice, kot je LMArene, kjer lahko uporabniki glasujejo o kakovosti odgovorov AI ali o tem, kateri od ponujenih odgovorov so boljši, poroča omenjena stran. Uporabniki teh odgovorov ne berejo pozorno in ne preverjajo njihove točnosti, ampak jih preletijo in v dveh sekundah izberejo odgovor, ki se jim zdi učinkovit, namesto tistega, ki je resničen. Posledica tega je, da se nekateri modeli AI naučijo, kako zveneti čim bolje in čim pametneje, namesto da bi bili točni in uporabni.

LMArena (nekdanji Chatbot Arena) je javna platforma in lestvica, kjer uporabniki v živo primerjajo odgovore dveh anonimnih AImodelov in izberejo boljši odgovor; iz teh glasov nastaja Elostil ocena in javni leaderboard. LMArena meri človeško preferenco (kaj je ljudem všeč), kar ni vedno isto kot točnost.

Gre za posel

V teoriji se lahko zgodi, da bo slabši AI model bolje uvrščen prav zato, ker daje odgovore, ki so učinkovitejši in zvenijo privlačnejše, vendar je njihova kakovost slabša v primerjavi z odgovori nižje uvrščenih modelov, poroča omenjena spletna stran.

Namesto da bi se modeli optimizirali za kompleksno razmišljanje in dajanje zanesljivih informacij, se trenirajo, kako prepoznati vzorce tega, kar imajo ljudje radi in kaj želijo slišati. Torej imamo opravka z AI smetmi. 

AI torej v številnih primerih sploh ne dela tega, kar mi zares potrebujemo. Ali sploh lahko verjamemo številkam in obljubam o napredku umetne inteligence? Raziskovalci iz Evropske komisije imajo resen dvom. Njihov članek Ali lahko zaupamo merilom AI? iz februarja jasno kaže, da so današnji načini ocenjevanja orodij popolnoma zgrešeni. 

UI Del vsebine je ustvarjen s pomočjo generativne umetne inteligence.
Komentarji (0)

Opozorilo: 297. členu Kazenskega zakonika je posameznik kazensko odgovoren za javno spodbujanje sovraštva, nasilja ali nestrpnosti.

PRAVILA ZA OBJAVO KOMENTARJEV
Oglaševanje Uredništvo PRO PLUS Moderiranje Piškotki Spremeni nastavitve piškotkov Politika zasebnosti Splošni pogoji Pravila ravnanja za zaščito otrok
ISSN 2630-1679 © 2025, Cekin.si, Vse pravice pridržane Verzija: 1333