21. 1. 2025 – 16.00

Pristna neumnost

Audio file
Vir: X
Audio file
21. 3. 2021 – 12.00
O osnovah umetne inteligence, njene emergence in etične konsekvence

V štirih letih, odkar je postal širši javnosti dostopen Generative pre-trained transformer 3, bolj znan kot GPT-3, je umetna inteligenca postala univerzalno orodje za reševanje problemov na vseh področjih to- in onostranstva. Z vsako nadgradnjo modela se zdi, da se zaupanje ljudi v klepetalnike, osnovane na umetni inteligenci, samo še stopnjuje. Zaupanje v najbolj razširjen model umetne inteligence, Chat GPT, je prišlo tako daleč, da se danes z njim interpretira in analizira celo pravne tekste, kot je na primer predlog spremembe Zakona o medijih iz uvodnega posnetka.

Vir: "Chat GPT App 2" by danielfoster437 is licensed under CC BY-NC-SA 2.0.
Audio file
24. 12. 2024 – 7.05
Ali ljudje prepoznamo AI poezijo?

Vplivnica in članica podmladka Slovenske demokratske stranke iz posnetka kasneje uporabo umetne inteligence opravičuje s tem, da je zakon preveč zahteven, da bi ga lahko razumele influenserke. Ker zakaj bi nekdo poskušal nekaj razumeti, če lahko namesto njega razmišljajo obsežni jezikovni modeli. Dotična vplivnica je šla tako daleč, da je na spletni strani njene peticije proti predlogu zakona dodala opcijo uporabe AstaAI, ki naj bi s pomočjo umetne inteligence razlagal predlog Zakona o medijih. Omenjena SDS vplivnica se je kasneje na družbenem omrežju Twitter spustila v javno obračunavanje z ministrico za kulturo, Asto Vrečko. Pri tem je pokazala, da ji umetna inteligenca pri tem ali ni bila zmožna predloga zakona razložiti dovolj preprosto, da bi ga razumele tudi influenserke, ali pa da je predlog zakona razložila napačno.

Pri umetni inteligenci se namreč pojavi problem, povezan z delovanjem modelov. Ko umetna inteligenca dveh delov vsebine ne more povezati med seboj, manjkajočo vsebino interpolira, oziroma po domače, se zlaže. Stvar se dodatno zaplete v primeru nekritične uporabe rezultatov. Zaradi metodologije obsežnih jezikovnih modelov, ki temelji na strojnem učenju in obdelavi ogromnih količin podatkov, uporabniki pogosto smatrajo, da so rezultati resnica.

Primer tega je preiskava proti družinski odvetnici Chong Ke, ki se je začela lani spomladi v Kanadi. Chong Ke je na sodišču citirala dva neobstoječa sodna primera, ki si ju je izmislil Chat GPT. Slabo leto pred tem je newyorško sodišče odvetniški družbi Levidow, Levidow in Oberman zaradi citiranja primerov, ki si jih je izmislila umetna inteligenca, naložilo slabih pet tisoč evrov kazni. Za napake obsežnih jezikovnih modelov namreč ne sme odgovarjati brezosebni model ali njegov razvijalec, ampak oseba, ki se zavestno odloči, da bo rezultate uporabila.

Audio file
11. 7. 2023 – 16.00
Meta predstavila alternativo Twitterju - Threads

Industrija razvoja umetne inteligence je kapitalsko izjemno zahtevna in večinoma v lasti privatnikov. MetaAI je v lasti Marka Zuckerberga, v najbolj znanega razvijalca umetne inteligence, OpenAI, pod katerega spada tudi ChatGPT, pa je tako imenovana Paypal mafija, ki jo sestavljajo Jeff Bezos, Peter Thiel in Elon Musk, skupaj prispevala okoli milijardo evrov začetnega kapitala. Posledično ta industrija izjemno pritiska na politiko, da bi čim bolj zrahljala že tako minimalne omejitve, ki zmanjšujejo količino podatkov, s katerimi bi se lahko modeli učili.  

Audio file
16. 4. 2019 – 16.00
Moč tehno bogov

Tako je predsednik vlade Združenega kraljestva, Keir Starmer, takoj na začetku letošnjega leta oznanil načrt, kako bi državo spremenil v vodilno silo na področju umetne inteligence. V načrtu je med drugim tudi dvajsetkratno povečanje zmogljivosti modelov umetne inteligence. En od prvih ukazov, ki jih je po včerajšnji inavguraciji sprejel novi-stari predsednik Združenih držav Amerike, Donald Trump, je tudi razveljavitev ukaza nekdanjega predsednika Joeja Bidna, ki je zahteval, da razvijalci umetne inteligence delijo rezultate varnostnih testov z vlado, preden jih javno objavijo. Nasprotno je Evropska unija leta 2023 kot prva na svetu omejila razvoj umetne inteligence na način, da lahko model trenira samo na podatkih, ki jih lastnik izrecno ne zavaruje. To pa še vedno omogoča sive cone, kot je na primer odvzemanje podatkov iz socialnih omrežij, ki so v lasti istih oseb, kot podjetja, ki razvijajo modele umetne inteligence.

Napake umetne inteligence, za katere so na koncu krivi uporabniki, služijo kot dodaten argument za večjo deregulacijo. Lažje in hitrejše je natrenirati model z večjo količino podatkov, kot izboljšati osnovo. Vlade so tako postavljene v položaj, ko morajo izbirati med tveganjem zmanjševanja omejitev na račun večje učinkovitosti, in zaščito zasebnosti svojih državljanov. Zagotovo pa je, da so v vsakem primeru pri tem vedno bolj odvisne od močnih zasebnih razvijalcev, ki s tem vedno bolj širijo vpliv nad države in njihove prebivalce.

Prazen radio ne stoji pokonci! Podpri RŠ in omogoči produkcijo alternativnih, kritičnih in neodvisnih vsebin.

Dodaj komentar

Komentiraj

Z objavo komentarja potrjujete, da se strinjate s pravili komentiranja.