c

Pistlar:

23. september 2024 kl. 17:21

Sigurður Már Jónsson (sigurdurmar.blog.is)

Uppljóstrarar og gervigreind

Áhyggjur af hugsanlegum skaða vegna gervigreindar hafa verið til staðar í áratugi en velgengni gervigreindarinnar síðustu ár hefur að sumu leyti aukið þann ótta og skilið eftir spurningar um hvernig eigi að takast á við þau tækifæri og þær ógnanir sem fylgja tækniframförum sem þessum.

Þó að gervigreindarfyrirtækin hafi opinberlega heitið að þróa tæknina á öruggan hátt, hafa vísindamenn og einstaka starfsmenn gervigreindarfyrirtækja varað við skorti á eftirliti þar sem gervigreind geti aukið á þau vandkvæði sem mannkynið nú þegar býr við eða skapað alveg nýjar hættur. Hér hefur í pistlum nokkrum sinnum verið vikið að þessum áhyggjum.artificial-intelligence

Að skapa og stýra

Sem fyrr togast á ólík sjónarmið, sjónarmið þeirra sem ganga óhræddir til móts við nýja tíma og svo þeirra sem vilja hafa einhverja stjórn á atburðarásinni. Þegar kemur að framþróun og tækninýjungum fer það ekki alltaf saman, að skapa og stýra. Nú er talið að 61% fjárfestinga í gervigreind séu í Bandaríkjunum, 17% í Kína en aðeins 6% í Evrópu. Því finnst mörgum hjákátlegt að Evrópa leggi sig helst fram um að reglugerðarvæða þróunina. Má þar hafa í huga nýleg orð Giorgiu Meloni forsætisráðherra Ítalíu sem sagði „Bandaríkin skapa, Kína afritar, en Evrópa regluvæðir.“

En margt við eðli gervigreindar veldur áhyggjum og þá er ekki endilega vísað til þeirra fjölmörgu vísindaskáldsagna sem meðal annars ganga út frá yfirtöku gervigreindarinnar og endalokum homo sapiens sem herra jarðarinnar. Hér var í pistli sagt frá nýlegri úttekt bandaríska fyrirtækisins Gladstone AI sem leiddi í ljós verulegar áhyggjur margra í Bandaríkjunum. Þá gerðist það fyrir stuttu að hópur núverandi og fyrrverandi starfsmanna hjá áberandi gervigreindarfyrirtækjum birti opið bréf þar sem varað var við skorti á öryggiseftirliti innan greinarinnar og kallað eftir aukinni vernd fyrir uppljóstrara.

Hættur gervigreindar

Bréfið, sem kallar á „rétt til að vara við gervigreind“, er ein opinskáasta yfirlýsingin um hættur gervigreindar sem komið hefur fram. Hafa verður í huga að hún kemur innan úr því sem er almennt heldur leynilegur iðnaður enda mikið í húfi og mörg viðskiptaleyndarmál undir. Ellefu núverandi og fyrrverandi starfsmenn OpenAI skrifuðu undir bréfið ásamt tveimur núverandi eða fyrrverandi starfsmönnum Google DeepMind en annar þeirra starfaði áður hjá Anthropic.

„Gervigreindarfyrirtæki búa yfir umtalsverðum upplýsingum um getu og takmarkanir kerfa þeirra, hversu fullnægjandi verndarráðstafanir þeirra eru og mismunandi áhættustig,“ segir í bréfinu. Bréfritarar gagnrýna fyrirtækin fyrir að opinbera ekki upplýsingar sínar og því séu stjórnvöld og almenningur í myrkri um raunverulega áhættu. „Fyrirtækin hafa hins vegar aðeins veikar skyldur eins og er til að deila sumum þessara upplýsinga með stjórnvöldum og engum til borgaralegs samfélags. Við teljum að ekki sé hægt að treysta á að allir deili því af fúsum og frjálsum vilja.“aa

Trygging fyrir uppljóstrara

Bréfið kallar á aukna vernd fyrir þá starfsmenn gervigreindarfyrirtækja sem ákveða að tjá áhyggjur sínar af öryggismálum. Því er beðið um skuldbindingu við gagnsæi og ábyrgð, þar á meðal ákvæði um að fyrirtæki muni ekki neyða starfsmenn til að undirrita neina samninga sem geti hindrað þá í að tjá áhyggjur sínar. Einnig vilja þeir tryggingu fyrir uppljóstrara sem geti þá deilt áhyggjum sínum með nafnlausum hætti með stjórnarmönnum.

„Svo lengi sem það er ekkert skilvirkt eftirlit stjórnvalda með þessum fyrirtækjum eru núverandi og fyrrverandi starfsmenn meðal fárra manna sem geta dregið þá til ábyrgðar gagnvart almenningi,“ segir í bréfinu og þar er bætt við. „Samt sem áður hindra víðtækir trúnaðarsamningar okkur frá því að láta áhyggjur okkar í ljós, nema við fyrirtæki sem gætu á sama tíma hundsað það að taka á þessum málum.“

Hörð þagnarskylduákvæði

Fyrirtæki eins og OpenAI hafa fylgt harðri stefnu til að koma í veg fyrir að starfsmenn tjái sig frjálslega um vinnu sína. Tímaritið Vox greindi frá því fyrir stuttu að OpenAI léti starfsmenn sem yfirgefa fyrirtækið skrifa undir afar hörð trúnaðarákvæði og þagnarskyldu ellegar eiga þeir á hættu að missa eignarhluti sína í félaginu. Sam Altman, forstjóri OpenAI, baðst afsökunar í kjölfar skýrslunnar og sagði að hann myndi breyta verklagsreglum.ai3

Bréfið kemur í kjölfar þess að tveir helstu starfsmenn OpenAI, stofnandinn Ilya Sutskever og öryggisfulltrúinn Jan Leike, sögðu upp störfum hjá fyrirtækinu í maí síðastliðnum. Eftir brottför sína hélt Leike því fram að OpenAI hefði yfirgefið öryggismenningu í þágu ímyndar og seljanleika hlutabréfa. Bréfið endurómaði að nokkuð gagnrýni Leike þar sem sagt var að fyrirtæki bæru enga skyldu til að vera gagnsæ um starfsemi sína.

Enn aftur komum við að því hvort það fari saman, að gera öryggiskröfur gagnvart hættu sem við vitum í raun ekki hver er og hindrum fyrir vikið þróun og tækniframfarir sem eru á fleygiferð. Ljóst er að bandarísku tölvurisarnir ætla ekki að láta regluverk Evrópu stöðva sig. Þannig hefur Apple stöðvað útgáfu á sinni gervigreind (Apple Intelligence) í Evrópu, þar sem lög ESB setji persónuvernd í uppnám. Meta (Facebook) ætlar ekki að opna fyrir Llama 3-gervigreind sína í Evrópu og notkun á Gemini-gervigreind Google er takmörkum háð. Það á eftir að koma í ljós hver hefur rétt fyrir sér.