Ljudi i AI sustavi sve više surađuju, a istraživači rade na transparentnosti i sigurnosti umjetne inteligencije
Ranjivosti umjetne inteligencije (AI) su pristranost, nedostatak objašnjivosti i osjetljivosti na napade koji posebno dizajniranim unosom podataka proizvode pogrešne rezultate. Kako bi se promovirao odgovorno korištenje umjetne inteligencije, IBM je priredio okrugli stol s medijima na temu „Odgovorno korištenje umjetne inteligencije (AI)“ s IBM-ovom suradnicom i znanstvenicom Aleksandrom (Saška) Mojsilović, autoricom više od 100 publikacija te vlasnicom 16 patenata.
Bilo je govora o trenutno kontroverznoj upotrebi tehnologije, posebice AI-ja koji se koristi za
stvaranje potencijalno štetnih sadržaja poput deepfakeova, zapaljivih sadržaja i algoritama društvenih mreža koji korisnike usmjeravaju prema dezinformacijama.
Dr. Mojsilović je naglasila da performanse neće biti dovoljne kao paradigma dizajna umjetne inteligencije nego će i etička pitanja morati biti dio jednadžbe. Stoga IBM Research razvija tehnike i algoritme za procjenu - i rješavanje - temeljnih elemenata povjerenja za AI sustave:
• alata koji otkrivaju i ublažavaju pristranost
• otkrivaju ranjivosti
• uklanjaju napade
• demaskiraju postupak donošenja odluka.
Ljudi i AI sustavi sve više surađuju i ključno je da vjerujemo rezultatima tih sustava kako bismo donosili svoje odluke. Stručnjaci iz IBM Research identificiraju sljedeće stupove kako bi stvorili osnovu za pouzdane AI sustave:
• Pravičnost: AI sustavi trebali bi koristiti podatke u razvoju i modele u kojima nema pristranosti, kako bi se izbjeglo nepravedno postupanje s nekim skupinama podataka
• Robusnost: AI sustavi trebaju biti sigurni i zaštićeni, ne smiju biti podložni neovlaštenom upravljanju ili ugrožavanju podataka na kojima su razvijeni
• Objašnjivost: AI sustavi trebaju pružati odluke ili prijedloge koji mogu biti razumljivi njihovim korisnicima i programerima
• Loza: AI sustavi trebaju sadržavati detalje o njihovom razvoju, implementaciji i održavanju kako bi mogli biti revidirani tijekom svog životnog ciklusa
Međutim, baš kao i neka fizička struktura, povjerenje se ne može graditi samo na jednom stupu. Ako
je AI sustav pravedan, ali ne može odoljeti napadu, neće mu se vjerovati. Ako je siguran, ali nitko ne
može razumjeti podatke koje pruža, također mu se neće vjerovati. Stoga je nužno ojačati sve stupove
zajedno, kao i sposobnost mjerenja i komuniciranja razina izvedbe sustava u svakoj od ovih dimenzija.
Jedan od načina da se to postigne bio bi pružanje takvih podataka putem SDoC-a ili informativnih tablica za usluge AI. U njih IBM-ovi stručnjaci predlažu da se uključe informacije o radu sustava, podacima o razvoju, osnovnim algoritmima, postavljanju i rezultatima ispitivanja, mjerilima performansi, provjerama pravednosti i robusnosti, namjeravanoj uporabi te održavanju i prekvalifikaciji - za detalje posjetite web stranicu IBM-ov AI FactSheet projekt.