Prieš vėliau šią savaitę Seule (Pietų Korėjoje) prasidėsiantį AI saugumo viršūnių susitikimą, jo šeimininkė Jungtinė Karalystė plečia savo pastangas šioje srityje. AI saugos institutas – JK įstaiga, įkurta 2023 m. lapkritį, turinti ambicingą tikslą įvertinti ir spręsti DI platformose kylančias rizikas – pranešė, kad atidarys antrą vietą… San Franciske.
Idėja yra priartėti prie to, kas šiuo metu yra AI plėtros epicentras, kai Bay Area yra OpenAI, Anthropic, Google ir Meta namai, be kita ko, kuriant pagrindines AI technologijas.
Pagrindiniai modeliai yra generatyvių dirbtinio intelekto paslaugų ir kitų taikomųjų programų blokai, ir įdomu tai, kad nors JK pasirašė susitarimo memorandumą su JAV, kad abi šalys bendradarbiautų įgyvendinant AI saugos iniciatyvas, JK vis dar renkasi investuoti į tiesioginis buvimas JAV, kad išspręstų šią problemą.
„San Franciske dirbantys žmonės suteiks jiems prieigą prie daugelio šių dirbtinio intelekto įmonių būstinių“, – interviu „TechCrunch“ sakė JK mokslo, inovacijų ir technologijų valstybės sekretorė Michelle Donelan. „Daugelis jų turi bazes čia, Jungtinėje Karalystėje, bet manome, kad būtų labai naudinga turėti bazę ir ten, gauti papildomą talentų telkinį ir dar labiau bendradarbiauti bei dirbti kartu. su Jungtinėmis Valstijomis“.
Viena iš priežasčių yra ta, kad JK būti arčiau to epicentro naudinga ne tik norint suprasti, kas statoma, bet ir dėl to, kad tai suteikia JK daugiau matomumo šioms įmonėms – svarbu, turint omenyje, kad dirbtinį intelektą ir technologijas apskritai mato JK kaip didžiulę galimybę ekonomikos augimui ir investicijoms.
Ir atsižvelgiant į naujausią „OpenAI“ dramą, susijusią su „Superalignment“ komanda, atrodo, kad tai ypač tinkamas momentas ten įsitvirtinti.
2023 m. lapkritį atidarytas AI saugos institutas šiuo metu yra gana kuklus reikalas. Šiandien organizacijoje dirba tik 32 žmonės – tikras AI technologijų Dovydas Goliatui, kai atsižvelgiama į milijardus dolerių investicijų, kurios yra DI modelius kuriančios įmonės, taigi ir jų pačių ekonominiai motyvai įsigyti savo technologijas. išeiti į mokančių vartotojų rankas.
Vienas iš ryškiausių AI saugos instituto pasiekimų buvo šio mėnesio pradžioje išleistas „Inspect“ – pirmasis įrankių rinkinys, skirtas pagrindinių AI modelių saugai išbandyti.
Šiandien Donelanas tą leidimą pavadino „pirmojo etapo“ pastangomis. Iki šiol buvo ne tik sudėtinga lyginti modelius, bet ir šiuo metu dalyvavimas yra labai pasirenkamas ir nenuoseklus susitarimas. Kaip pabrėžė vienas aukšto rango šaltinis JK reguliavimo institucijoje, įmonės šiuo metu nėra teisiškai įpareigotos tikrinti savo modelius; ir ne kiekviena įmonė nori, kad modeliai būtų patikrinti prieš išleidžiant. Tai gali reikšti, kad tais atvejais, kai gali būti nustatyta rizika, arklys jau gali būti užsimušęs.
Donelanas sakė, kad AI saugos institutas vis dar kuria, kaip geriausiai bendradarbiauti su AI įmonėmis, kad jas įvertintų. „Mūsų vertinimo procesas pats savaime yra naujas mokslas“, – sakė ji. „Taigi su kiekvienu vertinimu mes plėtosime procesą ir dar labiau jį patobulinsime.”
Donelanas sakė, kad vienas iš tikslų Seule būtų pristatyti „Inspect“ aukščiausiojo lygio susitikime susirenkančioms reguliavimo institucijoms, siekiant, kad jos taip pat priimtų jį.
„Dabar turime vertinimo sistemą. Antrasis etapas taip pat turi būti susijęs su DI saugumu visoje visuomenėje“, – sakė ji.
Ilgalaikėje perspektyvoje Donelanas mano, kad JK rengs daugiau dirbtinio intelekto teisės aktų, tačiau, pakartodama tai, ką šiuo klausimu pasakė ministras pirmininkas Rishi Sunak, ji priešinsis tam, kol geriau supras AI rizikos mastą.
„Mes netikime teisės aktų kūrimu, kol neturime tinkamo supratimo ir visiško supratimo“, – sakė ji ir pažymėjo, kad neseniai paskelbtoje instituto paskelbtoje tarptautinėje AI saugos ataskaitoje daugiausia dėmesio skirta bandymui susidaryti išsamų iki šiol atliktų tyrimų vaizdą. kad trūksta didelių spragų ir kad turime skatinti ir skatinti daugiau mokslinių tyrimų visame pasaulyje.
„Ir teisės aktai Jungtinėje Karalystėje užtrunka apie metus. Ir jei mes ką tik būtume pradėję teisės aktus, kai pradėjome vietoj [organizing] AI saugos aukščiausiojo lygio susitikimas [held in November last year]mes vis tiek dabar leistų įstatymus ir iš tikrųjų neturėtume ką parodyti.
„Nuo pat pirmosios instituto darbo dienos aiškiai supratome, kaip svarbu laikytis tarptautinio požiūrio į AI saugą, dalytis moksliniais tyrimais ir bendradarbiauti su kitomis šalimis, kad išbandytume modelius ir numatytume pasienio AI riziką“, – sakė Ianas Hogarthas. AI saugos institutas. „Šiandien yra esminis momentas, leidžiantis toliau tobulinti šią darbotvarkę, ir mes didžiuojamės galėdami plėsti savo veiklą srityje, kurioje gausu technologijų talentų, taip papildydami neįtikėtiną patirtį, kurią mūsų darbuotojai Londone suteikė nuo pat pradžių.