Veštačkoj inteligenciji su potrebna međunarodna pravila, a ljudima je potrebno više etičkog obrazovanja kako bi se pažljivije odnosili prema veštačkoj inteligenciji, rekao je nemački teolog i stručnjak za socijalnu i ekonomsku etiku Elmar Nas u razgovoru sa novinarima austrijskog crkvenog lista, prenosi Katpres u sredu. 17. maja .

Veštačka inteligencija, doduše, već može da optimizuje radne procese u nauci, tehnologiji i medicini, ali opasnost leži tamo gde se odgovornost za sopstvene postupke prebacuje na robote ili algoritme, upozorio je nemački teolog. On smatra da je razumljiva želja da se matematički savršenim odlukama umanje ljudske greške, ali je podsetio da je čovek više od grupe različitih podataka.

Za razliku od veštačke inteligencije, čovek ima dušu i sposoban je za „iskrene ljudske susrete“, dodao je on. Kako ne bi ugrozio odgovorno postupanje sa veštačkom inteligencijom, Nas smatra etičku obuku u nauci i tehnologiji neophodnom za percepciju čoveka, razumevanje vrednosti, odgovornost, slobodu i svest o opasnostima.

Međutim, bilo bi premalo oslanjati se samo na etiku, jer uvek postoje ljudi koji koriste veštačku inteligenciju i razvijaju je kako bi ostvarili profit i moć“, rekao je on, zahtevajući, poput pape Franje, jasna pravila i sankcije u poslovanju. sa veštačkom inteligencijom.

Kada bi ljudi slepo verovali veštačkoj inteligenciji u važnim odlukama, na primer u verskim pitanjima ili u slučaju aktuelnog rata u Ukrajini, to bi otvorilo vrata despotskom režimu u kojem bi ljudi bili ugnjetavani i gde bi svi morali da imaju isto mišljenje. Tada bi u pitanju bilo „ono što razumemo pod pojmovima humanosti, odgovornosti, demokratije, dostojanstva i slobode“, objasnio je Nas.

Za njega je, između ostalog, sumnjiva upotreba humanoidnih robota u nezi. Oni su „torzo koji pokreće mašina“, bez pravog saosećanja. Objašnjenja o novim oblastima primene robota smatra razumljivim, ali roboti u domovima za nemoćne i u ophođenju sa starijim osobama mogu da pokažu samo „navodna osećanja”. „Kada se utikač izvuče, sve prestaje“, slikovito je objasnio.

Nas takođe vidi opasnost u upotrebi veštačke inteligencije u autonomnim oružja, koje „samo donosi ‘odluke’ gde će leteti, bez ljudskog učešća”. Rezultat su ratni zločini za koje niko ne bi preuzeo odgovornost. Nas stoga poziva na zabranu takvog oružja.

On vidi više smisla u korišćenju veštačke inteligencije u slučaju čet-bota „ChatGPT“ prilikom prevođenja ili traženja ideja. On sam koristi veštačku inteligenciju u naučnom radu, na primer kada pretražuje četove u potrazi za temama kao što su uteha, večnost, oprost ili smisao života. Istovremeno, veštačka inteligencija predstavlja podršku u istraživanju, ali rešenja za teologiju i pastirsku brigu mora da donosi ljudska inteligencija, zaključio je on, saopštio je Katpres u sredu, 17. maja.

IKA