O discuție despre o posibilă retragere a studiilor publicate pe site-ul Academia.edu a cuprins și mediul intelectual din Sibiu. Cauza: programele de inteligență artificială scanează aceste texte, iar informațiile scoase de aici sunt ulterior folosite și monetizate.
Scriitorul Radu Vancu susține că site-ul Revistei Transilvania a fost deja vizat de boții AI, și că nu mai există acum decât situația unei reglementări internaționale a acestui aspect.
”E reală discuția. Inclusiv pe site-ul revistei Transilvania am primit vizite în ultimele luni, au fost câteva mii de boți de la chatGPT care au scanat arhiva. Colegii noștri de la IT mi-au spus că au descărcau din arhivă, iar asta s-a întâmplat și pe pagina Muzeului Digital al Romanului Românesc.
Nu te prea poți apăra de asta. Eu cred că e profund imoral și ilegal să se folosească aceste date, să nu existe un minim dialog cu cel de unde iei aceste date și care le-a creat, să nu plătești pentru folosirea acestor date, fără drepturi de autor, fără nimic. Ei vin, se servesc gratis și hrănesc această mașinărie în scopuri comerciale evidente.
Nu te poți apăra, există însă artiști, de exemplu, care se judecă cu chatGPT, unii cu succes, chiar au obținut recompensări financiare pentru folosire operei lor fără un acord prealabil. AI poate să aibă utilizări benigne și maligne. Sunt sigur că în absolut toate domeniile are deja AI aplicații fundamental pozitive, nu contest asta, însă e nevoie de o reglementare”, spune Radu Vancu.
El susține că o ”retragere de pe internet” nu mai poate fi o soluție în 2025.
„Degeaba ne retragem noi de pe platformele online, răul deja s-a produs. Pe de altă parte, textele apărute cu autori morți de peste 70 de ani nu ai ce să ceri, sunt libere de aceste cerințe. E vorba de cercetarea contemporană, e limpede că această zonă are nevoie de legi, de reglementări clare. De fapt, asta e tot ce poate obține în acest moment.
Există o bătălie între guverne și marile companii care activează în acest domeniu de cel puțin două decenii. Guvernele cer baza acestor algoritmi, modul lor de calcul, iar companiile se opun, - dacă facem public algoritmii, ne distrugeți afacerea, din asta trăim. Presiunea pe reglementare esențială și e singura măsură pe care o avem acum la dispoziție”, a mai transmis Radu Vancu pentru Turnul Sfatului.
”Eu nu vreau să blochez accesul la informație. Dacă scriem numai pentru noi, atunci scriem degeaba”
Istoricul Silviu Purece a postat câteva zeci de lucrări pe site-ul ”Academia.edu” și spune că va continua să o facă.
”Deocamdată nu m-am gândit să-mi șterg lucrările. Sincer, nu m-am gândit să-mi scot de aici lucrările postate deja. O să mă preocupe asta doar atunci când o să văd rezultatele acestor scanări de către programele legate de inteligența artificială. Prima dată vreau să văd ce pot face ea, AI-ul, cu ele. Eu nu vreau să blochez accesul la informație. Dacă scriem numai pentru noi, atunci scriem degeaba.
Să văd ce face cu aceste informații, iar dacă situația se agravează, atunci mă gândesc.
Dar deocamdată e ca și cum nu ai mai ieși din casă de frica hoților”, spune Silviu Purece.
De aceeași opinie este și profesorul universitar Marian Țiplic.
”E greșită ideea să-ți ștergi conținutul de pe Academia. Ideea acestei platforme este tocmai crearea unui acces rapid și gratuit la conținutul lucrărilor științifice deja publicate.
Din aceasta perspectivă, e clar că e absurd să protejezi studii deja publicate. Există o componentă în care poți încărca și studii aflate în faza de pre-publicare: adică au fost acceptate în jurnale prestigioase ”open acces”, dar încă nu au fost încărcate pe platformele respective.
La acestea aș înțelege că ar fi un oarecare pericol de furt de idee, dar și aici e cumva fără sens”, spune istoricul Marian Țiplic.
Directorul Bibliotecii ASTRA, Răzvan Pop, este și el de părere că ieșirea din online nu poate fi o soluție. În plus, explică el, ideea că AI se folosește de informații corecte, certificate științific, nu poate fi decât bine.
”Nu am nicio intenție să-mi retrag lucrările postate pe platforma academia.edu. Nu sunt menite a-mi aduce vreun profit financiar, prin urmare nu am de ce să le retrag. Cine dorește să le consulte, o poate face cu toată gratitudinea mea. Daca cei care ”updatează” AI-ul se vor folosi de ele, cu atât mai bine, măcar vor fi folosite informații corecte și etice”, a declarat Răzvan Pop pentru Turnul Sfatului.
UE, acum 7 ani: AI ar trebui să fie legală, etică și solidă
Încă din 2018, ”Grupul de experți la nivel înalt privind inteligența artificială” al Uniunii Europene a elaborat un ghid în acest domeniu. Acesta se numește ”Orientări în materie de etică pentru o inteligență artificială fiabilă” și și-a propus încadrarea pe 3 paliere: legalitate, etică și corectitudine.
”Orientările au scopul de a promova o AI fiabilă. IA fiabilă are trei componente, care ar trebui să fie îndeplinite pe toată durata ciclului de viață al sistemului: (a) AI ar trebui să fie legală, respectând toate legile și reglementările aplicabile; (b) ar trebui să fie etică, asigurând respectarea principiilor și a valorilor etice și (c) ar trebui să fie solidă, atât din perspectivă tehnică, cât și socială, deoarece, chiar dacă au intenții bune, sistemele AI pot provoca daune neintenționate.
Fiecare componentă în sine este necesară, dar nu suficientă pentru a dezvolta o AI fiabilă.
În mod ideal, toate cele trei componente funcționează în armonie și se suprapun.
În cazul în care, în practică, apar tensiuni între aceste componente, societatea ar trebui să depună eforturi pentru a le alinia”, se precizează în analiza făcută în urmă cu șapte ani.
Sursa foto: Pixabay
Abonează-te la canalul de WhatsApp al Turnul Sfatului pentru a afla în timp real știrile relevante de la Sibiu: accesează linkul de aici și apasă opțiunea Follow (Urmăriți).
Dacă ți-a plăcut, distribuie articolul și prietenilor tăi
Vizualizari: 3475


Ultimele comentarii
Acum 1 oră
Cornel
Acum 3 ore
Un sibian
Acum 4 ore
Mișu Mare
Acum 5 ore
Ger
Acum 7 ore
Sibian