Dačić: Nakon terenske provere, policajci na Čukarici zatekli 52 iregularna migranta
26. novembar 22:44
26. jul 2023 17:35
podeli vest
VAŠINGTON - Četiri najuticajnije kompanije u oblasti veštačke inteligencije (AI), najavile su danas formiranje industrijskog tela koje će nadgledati siguran razvoj najnaprednijih modela.
Frontier Model Forum su formirali ĆatGPT programer OpenAI, Antropik, Majkrosoft i Gugl, preneo je Gardijan.
Grupa je saopštila da će se fokusirati na „bezbedan i odgovoran razvoj graničnih AI modela, pozivajući se na AI tehnologiju koja je čak naprednija od trenutno dostupnih primera“.
„Kompanije koje stvaraju AI tehnologiju imaju odgovornost da obezbede da ona bude bezbedna i da ostane pod ljudskom kontrolom“, rekao je predsednik Majkrosofta Bred Smit.
Naveo je da je ova inicijativa vitalni iskorak tehnološkog sektora u odgovornom unapređenju veštačke inteligencije i suočavanju sa izazovima, tako da koristi celom čovečanstvu.
Članovi foruma rekli su da se njihovi glavni ciljevi tiču promovisanja istraživanja bezbednosti veštačke inteligencije, poput razvoja standarda za procenu modela, kao i podsticanje odgovorne primene naprednih AI modela.
Napomenuli su i to da će razgovarati o rizicima poverenja i bezbednosti u AI sa političarima i akademicima, kao i da će pomagati u razvoju pozitivnih upotreba veštačke inteligencije, poput borbe protiv klimatske krize i otkrivanja raka.
Članstvo u grupi, kako je istaknuto, otvoreno je za organizacije koje razvijaju granične modele, definisane kao „veliki modeli mašinskog učenja koji prevazilaze mogućnosti trenutno prisutne u najnaprednijim postojećim modelima i mogu da obavljaju širok spektar zadataka“.
Najava dolazi dok se ubrzavaju koraci za regulisanje tehnologije, a u petak su tehnološke kompanije, uključujući i članove osnivača Frontier Model Foruma, pristale na nove mere zaštite veštačke inteligencije nakon sastanka u Beloj kući sa američkim predsednikom Džozefom Bajdenom.
Dogovori sa tog sastanka obuhvatili su sadržaj AI sa vodenim žigom, kako bi se olakšalo uočavanje obmanjujućih materijala, kao što su dipfejks i omogućavanje nezavisnim stručnjacima da testiraju AI modele.
Saopštenje Bele kuće naišlo je na skepticizam kod nekih aktivista, koji su rekli da je tehnološka industrija imala istoriju nepoštovanja obećanja o samoregulaciji, naveo je Gardijan
26. novembar 17:02
26. novembar 16:10
26. novembar 16:05
26. novembar 15:57
26. novembar 15:29
26. novembar 23:43
26. novembar 23:37
26. novembar 23:25
26. novembar 22:39
26. novembar 23:59
26. novembar 23:39
26. novembar 23:36
26. novembar 23:29
21. novembar 17:35
21. novembar 15:18
21. novembar 13:03
20. novembar 17:11
18. novembar 15:04
9. novembar 22:08
26. novembar 16:46
26. novembar 16:36
26. novembar 16:32
26. novembar 18:55
26. novembar 14:32
26. novembar 06:12