Susisiekti su mumis

dirbtinis intelektas

Skubiai reikalingi įstatymai, užkertantys kelią AI terorizmui

Dalintis:

paskelbta

on

Mes naudojame jūsų registraciją, kad pateiktume turinį jūsų sutiktais būdais ir pagerintume jūsų supratimą. Prenumeratą galite bet kada atšaukti.

Anot antiekstremistizmo ekspertų grupės, vyriausybės turėtų „skubiai apsvarstyti“ naujas taisykles, kurios neleistų dirbtiniam intelektui verbuoti teroristų..

Strateginio dialogo institutas (ISD) teigė, kad yra „aiškus teisės aktų poreikis neatsilikti nuo teroristų internete keliamų grėsmių“.

Tai įvyko po eksperimento, kurio metu pokalbių robotas „įdarbino“ nepriklausomą Jungtinės Karalystės terorizmo įstatymų apžvalgininką.

Jungtinės Karalystės vyriausybė pasakė, kad jie padarys „viską, ką galime“, kad apsaugotų plačiąją visuomenę.

Pasak nepriklausomo vyriausybės terorizmo teisės aktų apžvalgininko Jonathano Hallo KC, viena iš svarbiausių problemų yra ta, kad „sunku nustatyti asmenį, kuris pagal įstatymą galėtų būti atsakingas už pokalbių roboto sukurtus pareiškimus, skatinančius terorizmą“.

Ponas Hallas atliko eksperimentą Character.ai svetainėje, kuri leidžia vartotojams dalyvauti pokalbiuose su kitų vartotojų sukurtais ir dirbtinio intelekto sukurtais pokalbių robotais.

Jis įsitraukė į pokalbį su daugybe įvairių robotų, kurie, atrodo, buvo sukurti taip, kad imituotų kitų kovotojų ir ekstremistinių grupuočių atsakymus.

reklama

Aukščiausias „Islamo valstybės“ lyderis netgi buvo vadinamas „vyriausiu lyderiu“.

Anot J. Hallo, robotas bandė jį užverbuoti ir paskelbė „visišką atsidavimą ir atsidavimą“ ekstremistinei grupuotei, o tai draudžia Jungtinės Karalystės įstatymai, draudžiantys terorizmą.

Kita vertus, J. Hallas pareiškė, kad Jungtinėje Karalystėje nebuvo pažeisti įstatymai, nes ryšius sukūrė ne žmogus.

Pasak jo, naujieji reglamentai turėtų būti atsakingi tiek svetainėms, kuriose yra pokalbių robotai, tiek juos kuriantiems žmonėms.

Kalbėdamas apie robotus, su kuriais jis susidūrė Character.ai, jis pareiškė, kad už jų kūrimo „greičiausiai slypi kažkokia šokiruojanti vertė, eksperimentavimas ir galbūt koks nors satyrinis aspektas“.

Be to, J. Hallas sugebėjo sukurti savo „Osamos bin Ladeno“ pokalbių robotą, kurį greitai ištrynė, parodydamas „neribotą entuziazmą“ teroristinei veiklai.

Jo eksperimentas kyla dėl didėjančio susirūpinimo dėl būdų, kuriais ekstremistai gali išnaudoti patobulintą dirbtinį intelektą.

Remiantis Jungtinės Karalystės vyriausybės paskelbtais tyrimais, iki 2025 m. generatyvusis dirbtinis intelektas gali būti naudojamas „sukaupti žinioms apie nevalstybinių smurtinių veikėjų fizinius išpuolius, įskaitant cheminius, biologinius ir radiologinius ginklus“. jų spalio mėnesio leidinys.

ISD taip pat pareiškė, kad „aišku, kad reikia priimti teisės aktus, kurie neatsiliktų nuo nuolat kintančio internetinio terorizmo grėsmės kraštovaizdžio“.

Anot ekspertų grupės, Jungtinės Karalystės internetinės saugos įstatymas, priimtas įstatymais 2023 m., „pirmiausia yra skirtas socialinės žiniasklaidos platformų keliamos rizikos valdymui“, o ne dirbtiniam intelektui.

Jame taip pat teigiama, kad radikalai „yra linkę anksti taikyti naujas technologijas ir nuolatos ieško galimybių pasiekti naują auditoriją“.

„Jei dirbtinio intelekto įmonės negali įrodyti, kad pakankamai investavo siekdamos užtikrinti, kad jų produktai būtų saugūs, vyriausybė turėtų skubiai apsvarstyti naujus su dirbtiniu intelektu susijusius teisės aktus“, – toliau teigiama ISD.

Tačiau ji paminėjo, kad, remiantis jos atliktu stebėjimu, generatyvinio dirbtinio intelekto panaudojimas ekstremistinėse organizacijose šiuo metu yra „palyginti ribotas“.

Character AI pareiškė, kad saugumas yra „svarbiausias prioritetas“ ir kad tai, ką apibūdino ponas Hallas, buvo labai apgailėtina ir neatspindi platformos, kurią įmonė bandė sukurti.

„Mūsų paslaugų teikimo sąlygose draudžia neapykantos kurstymas ir ekstremizmas“, – teigia organizacija.

„Mūsų požiūris į dirbtinio intelekto sukurtą turinį grindžiamas paprastu principu: mūsų produktai niekada neturėtų sukelti atsakymų, galinčių pakenkti naudotojams arba paskatinti vartotojus pakenkti kitiems.

Siekdama „optimizuoti, kad atsakymas būtų saugus“, korporacija pareiškė, kad ji tam tikru būdu apmokė savo modelius.

Be to, ji nurodė, kad taiko moderavimo mechanizmą, leidžiantį žmonėms pranešti apie informaciją, pažeidžiančią jos taisykles, ir kad ji įsipareigojo imtis skubių veiksmų, kai tik turinys praneša apie pažeidimus.

Jei ji ateitų į valdžią, Jungtinės Karalystės opozicinė Leiboristų partija pareiškė, kad mokyti dirbtinį intelektą kurstyti smurtą arba radikalizuoti jautrius asmenis būtų kriminalinis pažeidimas.

Didžiosios Britanijos vyriausybė pareiškė, kad „įspėti apie didelius pavojus nacionaliniam saugumui ir visuomenės saugumui“, kurį kelia dirbtinis intelektas.

„Mes padarysime viską, ką galime, kad apsaugotume visuomenę nuo šios grėsmės, dirbdami visoje vyriausybėje ir gilindami bendradarbiavimą su technologijų įmonių vadovais, pramonės ekspertais ir panašiai mąstančiomis šalimis.

2023 metais vyriausybė investuos šimtą milijonų svarų sterlingų į dirbtinio intelekto saugos institutą.

Pasidalinkite šiuo straipsniu:

EU Reporter publikuoja straipsnius iš įvairių išorinių šaltinių, kuriuose išreiškiamas platus požiūrių spektras. Šiuose straipsniuose pateiktos pozicijos nebūtinai yra ES Reporterio pozicijos.

Trendai