OpenAI neseniai paskelbė politikos rekomendacijas, kaip užtikrinti, kad dirbtinis intelektas (DI) būtų naudingas žmonijai, tačiau tuo pačiu metu pasirodė didelė tyrimo ataskaita, keliančios klausimų dėl generalinio direktoriaus Samo Altmano patikimumo. Šie du įvykiai, įvykę tą pačią dieną, sukėlė diskusijas apie tai, ar Altmanas gali įgyvendinti OpenAI pažadus.
Kas slypi už pasitikėjimo krizės?
OpenAI paskelbtose rekomendacijose teigiama, kad įmonė siekia užtikrinti „žmonių pirmumą“ dirbtinio intelekto srityje, ypač kai DI galimybės viršija net ir protingiausių žmonių sugebėjimus. Tačiau tyrimas, atliktas viename žurnale, parodė, kad Altmanas dažnai siekia patikti kitiems ir gali elgtis manipuliatyviai, kas kelia abejonių dėl jo gebėjimo kontroliuoti DI ateitį.
Insideriai atskleidžia Altmano veiklos ypatumus
Žurnalo tyrėjai apklausė daugiau nei 100 žmonių, pažįstančių Altmaną, ir peržiūrėjo vidinius dokumentus, kurie atskleidė „deceptyvumo ir manipuliacijų“ kaupimąsi. Nors atskiri incidentai gali atrodyti nereikšmingi, bendrai jie rodo, kad Altmanas nesukuria saugios aplinkos pažangiam DI. Situaciją apibendrino buvęs tyrimų vadovas Dario Amodei, teigdamas, kad „problema su OpenAI yra pats Samas“.
Visuomenės nuomonė ir OpenAI ateitis
Altmanas neigė kai kurias žurnalistų pateiktas teiginius arba teigė pamiršęs tam tikrus įvykius. Tačiau jo nuosekliai besikeičiančios pasakojimai darosi vis sunkiau ignoruoti, ypač kai visuomenė vis labiau nerimauja dėl DI saugumo ir jo galimų pasekmių. Neseniai atlikta apklausa parodė, kad amerikiečiai labiausiai nerimauja dėl DI poveikio jų gyvenimo kokybei.
OpenAI siūlymai ir jų tikslumas
OpenAI rekomendacijos apima idėjas, kaip sukurti viešąjį turtą, kuris leistų visiems piliečiams dalyvauti DI ekonomikos augime. Tačiau kai kurie kritikai teigia, kad šios rekomendacijos gali būti tik bandymas atitraukti dėmesį nuo augančių nerimų dėl DI saugumo. Atrodo, kad Altmanui ir jo kompanijai būtina įtikinti visuomenę, kad jų vizija yra teisinga, nes artėjantys įstatymai gali pareikalauti griežtesnių DI saugos taisyklių.
Žmonių darbo ateitis ir DI
OpenAI siūlo, kad žmonės, dirbantys DI srityje, galėtų pereiti prie socialinių paslaugų, tokių kaip sveikatos apsauga ir bendruomenės paslaugos. Tačiau, siekiant užtikrinti, kad šios sritys būtų vertinamos, reikia keisti visuomenės požiūrį į jų reikšmę. OpenAI taip pat siūlo įvesti mokestį už automatizuotą darbą, kuris galėtų būti naudojamas socialinėms programoms finansuoti.
Kaip OpenAI mato savo ateitį?
OpenAI teigia, kad siekia sukurti „atsparią visuomenę“, kuri galėtų greitai reaguoti į DI keliamus iššūkius. Altmanas pabrėžia, kad svarbu sukurti saugumo sistemas, kurios padės užtikrinti DI saugumą ir suderinamumą su demokratinėmis vertybėmis. Tačiau šiuo metu atrodo, kad pasitikėjimas Altmanu ir jo vadovaujama organizacija vis labiau silpnėja.


