BEZ PRISTRANOSTI Odgovorno korištenje umjetne inteligencije | Smartlife HR

Emisije
IMATE PRIČU? Javite nam se.

IMATE PRIČU? Javite nam se.

IMATE PRIČU? Javite nam se.

Ubacite video ili foto

Možete ubaciti do 3 fotografije ili videa. Ne smije biti više od 25 MB.

Poruka uspešno poslata

Hvala što ste potrošili pet minuta vašeg potpuno beznačajnog vremena, na potpuno besmislenu radnju slanja ovog teksta. Budite sigurni da se on najverovatnije neće nikad pojaviti u medijima jer niti imamo vremena niti imamo želju da se bavimo. vašim glupostima.

Ostalo

Upišite pojam u tražilicu i pritisnite ENTER

BEZ PRISTRANOSTI Odgovorno korištenje umjetne inteligencije

Autor Krunoslav Ćosić

Ljudi i AI sustavi sve više surađuju, a istraživači rade na transparentnosti i sigurnosti umjetne inteligencije

  Izvor: Profimedia

Ranjivosti umjetne inteligencije (AI) su pristranost, nedostatak objašnjivosti i osjetljivosti na napade koji posebno dizajniranim unosom podataka proizvode pogrešne rezultate. Kako bi se promovirao odgovorno korištenje umjetne inteligencije, IBM je priredio okrugli stol s medijima na temu „Odgovorno korištenje umjetne inteligencije (AI)“ s IBM-ovom suradnicom i znanstvenicom Aleksandrom (Saška) Mojsilović, autoricom više od 100 publikacija te vlasnicom 16 patenata.

 Aleksandra (Saška) Mojsilović
Aleksandra (Saška) Mojsilović
Izvor: IBM

Bilo je govora o trenutno kontroverznoj upotrebi tehnologije, posebice AI-ja koji se koristi za
stvaranje potencijalno štetnih sadržaja poput deepfakeova, zapaljivih sadržaja i algoritama društvenih mreža koji korisnike usmjeravaju prema dezinformacijama.

Dr. Mojsilović je naglasila da performanse neće biti dovoljne kao paradigma dizajna umjetne inteligencije nego će i etička pitanja morati biti dio jednadžbe. Stoga IBM Research razvija tehnike i algoritme za procjenu - i rješavanje - temeljnih elemenata povjerenja za AI sustave:

• alata koji otkrivaju i ublažavaju pristranost
• otkrivaju ranjivosti
• uklanjaju napade
• demaskiraju postupak donošenja odluka.

Ljudi i AI sustavi sve više surađuju i ključno je da vjerujemo rezultatima tih sustava kako bismo donosili svoje odluke. Stručnjaci iz IBM Research identificiraju sljedeće stupove kako bi stvorili osnovu za pouzdane AI sustave:
• Pravičnost: AI sustavi trebali bi koristiti podatke u razvoju i modele u kojima nema pristranosti, kako bi se izbjeglo nepravedno postupanje s nekim skupinama podataka
• Robusnost: AI sustavi trebaju biti sigurni i zaštićeni, ne smiju biti podložni neovlaštenom upravljanju ili ugrožavanju podataka na kojima su razvijeni
• Objašnjivost: AI sustavi trebaju pružati odluke ili prijedloge koji mogu biti razumljivi njihovim korisnicima i programerima
• Loza: AI sustavi trebaju sadržavati detalje o njihovom razvoju, implementaciji i održavanju kako bi mogli biti revidirani tijekom svog životnog ciklusa

Međutim, baš kao i neka fizička struktura, povjerenje se ne može graditi samo na jednom stupu. Ako
je AI sustav pravedan, ali ne može odoljeti napadu, neće mu se vjerovati. Ako je siguran, ali nitko ne
može razumjeti podatke koje pruža, također mu se neće vjerovati. Stoga je nužno ojačati sve stupove
zajedno, kao i sposobnost mjerenja i komuniciranja razina izvedbe sustava u svakoj od ovih dimenzija.

Jedan od načina da se to postigne bio bi pružanje takvih podataka putem SDoC-a ili informativnih tablica za usluge AI. U njih IBM-ovi stručnjaci predlažu da se uključe informacije o radu sustava, podacima o razvoju, osnovnim algoritmima, postavljanju i rezultatima ispitivanja, mjerilima performansi, provjerama pravednosti i robusnosti, namjeravanoj uporabi te održavanju i prekvalifikaciji - za detalje posjetite web stranicu IBM-ov AI FactSheet projekt.

MOŽDA ĆE VAS ZANIMATI