Detectoarele de conținut AI nu funcționează și aceasta este o mare problemă

Detectoarele de conținut AI nu funcționează și aceasta este o mare problemă
Cititorii ca tine ajută la sprijinirea MUO. Când efectuați o achiziție folosind link-uri de pe site-ul nostru, este posibil să câștigăm un comision de afiliat. Citeşte mai mult.

Inteligența artificială (AI) va transforma segmente întregi ale societății noastre, indiferent dacă ne place sau nu, și asta include World Wide Web.





Cu software precum ChatGPT disponibil pentru oricine are o conexiune la internet, devine din ce în ce mai dificil să se separe conținutul generat de AI de cel creat de o ființă umană. Bine că avem detectoare de conținut AI, nu?





REALIZAREA VIDEOCLIPULUI ZILEI Derulați PENTRU A CONTINUA CU CONȚINUT

Funcționează detectorii de conținut AI?

Detectoarele de conținut AI sunt instrumente specializate care determină dacă ceva a fost scris de un program de calculator sau de un om. Dacă căutați doar pe Google cuvintele „Detector de conținut AI”, veți vedea sunt zeci de detectoare acolo, toți susținând că pot face diferența între textul uman și cel non-uman.





Modul în care funcționează este destul de simplu: lipiți un text, iar instrumentul vă spune dacă a fost generat de AI sau nu. În termeni mai tehnici, folosind o combinație de tehnici de procesare a limbajului natural și algoritmi de învățare automată, detectorii de conținut AI caută modele și predictibilitate și efectuează apeluri pe baza acestora.

Acest lucru sună grozav pe hârtie, dar dacă ați folosit vreodată un instrument de detectare a inteligenței artificiale, știți foarte bine că sunt greșite, ca să spunem ușor. Cel mai adesea, ei detectează conținutul scris de oameni ca AI sau textul creat de ființe umane ca fiind generat de AI. De fapt, unii sunt jenant de prost în ceea ce ar trebui să facă.



Cât de precise sunt detectoarele de conținut AI?

Dacă vă aflați în Statele Unite, primul rezultat al căutării Google pentru „AI content detector” este writer.com (cunoscut anterior ca Qordoba; aceasta este o platformă de conținut AI care are și propriul detector). Dar când lipiți o secțiune din această întâmplare Associated Press articol în instrument, susține că există șanse foarte mari să fi fost generat de inteligența artificială.

  writer.com's AI content detector, screenshot

Deci, writer.com a înțeles greșit.





Pentru a fi corect, alți detectoare de conținut AI sunt cu greu mai bune. Nu numai că produc fals pozitive, dar marchează și conținutul AI ca uman. Și chiar și atunci când nu o fac, este suficient să faceți modificări minore textului generat de AI pentru a trece cu brio.

În februarie 2023, profesorul Armin Alimardani de la Universitatea Wollongong și profesor asociat la UNSW Sydney Emma A. Jane a testat o serie de detectoare de conținut AI populare, stabilind că niciunul dintre ei nu este de încredere. În analiza lor, care a fost publicată în Conversatia , Alimardani și Jane au concluzionat că această „cursă a înarmărilor” AI între generatoarele de text și detectoare va reprezenta o provocare semnificativă în viitor, în special pentru educatori.

Dar nu doar educatorii și profesorii au motive de îngrijorare: toată lumea are. Pe măsură ce textul generat de inteligență artificială devine omniprezent, fiind capabil să diferențieze între ceea ce este „real” și ceea ce nu este, adică să observăm când ceva este scris de AI , va deveni mai dificil. Acest lucru va avea un impact masiv asupra aproape tuturor industriilor și zonelor societății, chiar și asupra relațiilor personale.

Implicațiile AI pentru securitate cibernetică și confidențialitate

Faptul că nu există mecanisme de încredere pentru a determina dacă ceva a fost creat de software sau de o ființă umană are implicații grave pentru securitatea cibernetică și confidențialitate.

Actorii de amenințări sunt deja folosind ChatGPT pentru a scrie malware , generați e-mailuri de phishing, scrieți spam, creați site-uri de înșelătorie și multe altele. Și, deși există modalități de a se apăra împotriva acestui lucru, este cu siguranță îngrijorător faptul că nu există niciun software capabil să diferențieze în mod fiabil între conținutul organic și cel bot.

Și știrile false sunt deja o problemă masivă. Cu AI generativă în imagine, agenții de dezinformare sunt capabili să-și extindă operațiunile într-un mod fără precedent. Între timp, o persoană obișnuită nu are de unde să știe dacă ceva ce citește online a fost creat de software sau de o ființă umană.

Confidențialitatea este o chestiune cu totul diferită. Luați ChatGPT, de exemplu. Era a alimentat mai mult de 300 de miliarde de cuvinte înainte de lansarea sa. Acest conținut a fost extras din cărți, postări pe blog și forumuri, articole și rețelele sociale. A fost strâns fără consimțământul nimănui și cu desconsiderare aparent completă pentru protecția vieții private și a drepturilor de autor.

Apoi mai este și problema fals-pozitivelor. Dacă conținutul este marcat din greșeală ca fiind generat de inteligență artificială, nu ar putea asta să ducă la cenzură, care oricum este o problemă masivă? Ca să nu mai vorbim de prejudiciul acuzat de folosirea textului creat de inteligență artificială pe care l-ar putea aduce reputației cuiva, atât online, cât și în viața reală.

Dacă există într-adevăr o cursă a înarmărilor între IA generativă și detectorii de conținut, primul câștigă. Mai rău, pare că nu există nicio soluție. Toate avem produsele noastre pe jumătate coapte care nici măcar nu funcționează jumătate din timp, sau pot fi păcălite foarte ușor.

Cum să detectați conținutul AI: potențiale soluții

Faptul că în prezent nu par să avem răspunsuri reale la această problemă nu înseamnă că nu vom avea niciunul în viitor. De fapt, există deja câteva propuneri serioase care ar putea funcționa. Watermarking este unul.

Când vine vorba de modele AI și de limbaj profund, filigranul se referă la încorporarea unui fel de cod secret în textul generat de AI (de exemplu, model de cuvinte, stil de punctuație). Un astfel de filigran ar fi invizibil cu ochiul liber și, prin urmare, aproape imposibil de îndepărtat, dar software-ul specializat ar fi capabil să îl detecteze.

cum se schimbă pictogramele Windows 10

De fapt, în 2022, Universitatea din Maryland cercetătorii au dezvoltat o nouă metodă de filigranare pentru rețelele neuronale artificiale. Cercetătorul principal Tom Goldstein a spus la acea vreme că echipa sa a reușit să „demonstreze matematic” că filigranul lor nu poate fi eliminat în întregime.

Deocamdată, ceea ce poate face o persoană obișnuită este să se bazeze pe instinctele și pe bunul simț. Dacă există ceva neregulat în conținutul pe care îl citiți – dacă pare nenatural, repetitiv, lipsit de imaginație, banal – ar fi putut fi creat de software. Desigur, ar trebui, de asemenea, să verificați orice informație pe care o vedeți online, să verificați de două ori sursa și să stați departe de site-urile umbrite.

Revoluția AI este în desfășurare

Unii susțin că a cincea revoluție industrială este deja aici, deoarece inteligența artificială ocupă centrul atenției în ceea ce este descris ca o convergență dintre digital și fizic. Indiferent dacă este adevărat sau nu, tot ce putem face este să ne adaptăm.

Vestea bună este că industria securității cibernetice se adaptează la această nouă realitate și implementează noi strategii de apărare cu inteligența artificială și învățarea automată în prim plan.