Daugiau nei 350 technologijų ekspertų, AI tyrėjų ir pramonės lyderių pasirašė Pareiškimas apie AI riziką Šią savaitę paskelbė AI saugos centras. Tai labai trumpas ir glaustas vieno sakinio įspėjimas mums visiems:
AI išnykimo rizikos mažinimas turėtų būti pasaulinis prioritetas kartu su kitomis visuomeninio masto rizikomis, tokiomis kaip pandemijos ir branduolinis karas.
Taigi AI ekspertai, įskaitant praktinius „Google“ ir „Microsoft“ inžinierius, kurie aktyviai skleidžia dirbtinį intelektą visame pasaulyje, mano, kad AI gali tapti pasauliniu išnykimo įvykiu, panašiu į branduolinį karą. Taip.
Prisipažinsiu, aš maniau tą patį, ką daugelis žmonių darė, kai pirmą kartą perskaitė šį teiginį – tai daug mėšlo. Taip, dirbtinis intelektas turi daug problemų ir manau, kad dar anksti juo remtis, kaip daro kai kurios technologijų ir naujienų kompanijos, tačiau tokia hiperbolė yra tiesiog kvaila.
Tada atlikau Bard Beta Lab AI „Google“ paiešką ir radau keletą būdų, kaip AI jau yra žalingas. Kai kurie pažeidžiamiausi visuomenės nariai yra dar labiau rizikuojami dėl generatyvaus AI ir dėl to, kokie kvaili iš tikrųjų yra šie išmanieji kompiuteriai.
Nacionalinė valgymo sutrikimų asociacija atleido savo pagalbos linijos operatorius 2023 m. gegužės 25 d. ir pakeitė juos Tessa the ChatBot. Darbuotojai ėmė jungtis į profesines sąjungas, tačiau NEDA tvirtina, kad „tai buvo ilgai lauktas pokytis ir kad AI gali geriau aptarnauti valgymo sutrikimų turinčius žmones“ ir neturėjo nieko bendra su šešiais apmokamais darbuotojais ir įvairiais savanoriais, bandančiais burtis į profesines sąjungas.
2023 m. gegužės 30 d. NEDA išjungė Tessa the ChatBot, nes ji teikė žalingus patarimus žmonėms, turintiems rimtų valgymo sutrikimų. Oficialiai NEDA yra „susirūpinusi ir bendradarbiauja su technologijų komanda bei tyrimų grupe, kad tai toliau tirtų; ši kalba prieštarauja mūsų, kaip valgymo sutrikimų organizacijos, politikai ir pagrindiniams įsitikinimams“.
JAV yra 30 milijonų žmonių, turinčių rimtų valgymo sutrikimų, ir kasmet 10 200 mirs dėl tiesioginio jų pasekmių. Po vieną kas valandą.
Tada turime psichikos sveikatos ne pelno siekiančią organizaciją Koko, kuri naudojo dirbtinį intelektą kaip eksperimentą su nusižudžiusiais paaugliais. Taip, jūs perskaitėte teisingai.
Rizikos grupės vartotojai buvo nukreipti į Koko svetainę iš socialinės žiniasklaidos, kur kiekvienas buvo įtrauktas į vieną iš dviejų grupių. Vienai grupei buvo suteiktas tikrosios krizių pagalbos telefono numeris, kur jie, tikimasi, galėtų rasti reikiamą pagalbą ir paramą.
Kita grupė gavo Koko eksperimentą, kuriame jie turėjo atlikti viktoriną ir buvo paprašyti nustatyti dalykus, kurie sukėlė jų mintis ir ką jie daro, kad su jomis susidorotų.
Baigęs dirbtinis intelektas paklausė, ar kitą dieną jie patikrins savo telefono pranešimus. Jei atsakymas buvo teigiamas, jie buvo nustumti prie ekrano su užrašu „Ačiū už tai! Štai katė!” Žinoma, buvo katės nuotrauka ir, matyt, Koko ir dirbtinio intelekto tyrinėtojas, padėjęs sukurti šią mintį, kažkaip pagerins situaciją.
Aš nesu kvalifikuotas kalbėti apie tokių situacijų etiką, kai dirbtinis intelektas naudojamas diagnozuoti ar padėti žmonėms, kurie kovoja su psichine sveikata. Esu technologijų ekspertas, daugiausia dėmesio skiriantis išmaniesiems telefonams. Tačiau dauguma žmonių ekspertų sutinka, kad praktikoje yra daug problemų. Žinau, kad netinkama „pagalba“ gali ir dar labiau pablogins blogą situaciją.
Jei turite problemų su savo psichine sveikata arba jaučiate, kad jums reikia pagalbos, skambinkite arba rašykite žinutę 988, kad pasikalbėtumėte su žmogumi, kuris gali jums padėti.
Tokios istorijos pasakoja du dalykus – AI yra labai problemiškas, kai naudojamas vietoje kvalifikuotų žmonių ištikus krizei, o tikri žmonės, kurie turėtų geriau žinoti, taip pat gali būti kvaili.
Dabartinės būsenos AI nėra paruoštas naudoti tokiu būdu. Net nepanašu. Vašingtono universiteto profesorė Emily M. Bender labai pabrėžia savo pareiškimą Vice’ui:
„Didieji kalbos modeliai yra programos, skirtos sukurti patikimai skambantį tekstą, atsižvelgiant į jų mokymo duomenis ir įvesties raginimą. Jie neturi nei empatijos, nei kalbos, kurią jie kuria, nei situacijos, kurioje jie yra, supratimo. skleidžia patikimus garsus, todėl žmonės gali suteikti jam prasmę. Mesti kažką panašaus į jautrias situacijas reiškia rizikuoti nežinomai.
Noriu paneigti tai, ką matau ir skaitau, kad galėčiau apsimesti, kad žmonės nesinaudoja nuorodomis ir nebando sutaupyti pinigų naudodami dirbtinį intelektą tokiais žalingais būdais. Pati mintis mane erzina. Bet aš negaliu, nes dirbtinis intelektas vis dar yra kvailas ir, matyt, daug žmonių, norinčių juo naudotis.
Galbūt masinio išnykimo dėl AI idėja nėra tokia tolima idėja.