»Želimo zagotoviti, da se naša tehnologija ne bi uporabljala na način, s katerim bi lahko ogrozili demokratične procese,« so pri podjetju OpenAI v ponedeljek zapisali v objavi na svojem blogu.

Dodali so, da si še vedno prizadevajo razumeti učinkovitost svojih orodij pri individualno prilagojenem prepričevanju ljudi, in da nikomur ne bodo dovolili izdelave aplikacij za politične kampanje in lobiranje z njihovo pomočjo, dokler ne bodo imeli več informacij.

Napoved podjetja OpenAI prihaja v luči volitev, ki bodo letos potekale v številnih demokratičnih državah po vsem svetu, vključno z Indijo in ZDA. Dezinformacije, ki jih poganja umetna inteligenca, so med največjimi kratkoročnimi globalnimi tveganji, je v svojem poročilu prejšnji teden opozoril Svetovni gospodarski forum, poroča francoska tiskovna agencija AFP.

Strah pred dezinformacijami v okviru volitev je prisoten že leta, vendar je splošna dostopnost zmogljivih generatorjev besedil in fotografij z umetno inteligenco to grožnjo še povečala, zlasti če uporabniki ne morejo zlahka ugotoviti, ali je vsebina, ki jo vidijo, popolnoma lažna ali prirejena.

Podjetje OpenAI je sporočilo, da pripravlja orodja, ki bi besedilu, ustvarjenemu s ChatGPT, zanesljivo pripisala avtorstvo. Uporabnikom želijo omogočiti tudi, da bi lažje ugotovili, ali je bila slika oziroma fotografija ustvarjena z njihovim generativnim programom Dall-E 3.

Predvsem izreden uspeh generatorja besedil ChatGPT je v zadnjem letu sprožil svetovno revolucijo na področju umetne inteligence, vendar je spodbudil tudi opozorila, da lahko takšna orodja preplavijo internet z dezinformacijami in vplivajo na volivce. Čeprav je veliko teh vsebin slabe kakovosti, strokovnjaki pravijo, da dezinformacije dodatno spodbujajo krizo zaupanja v politične institucije.