Educația în era inteligenței artificiale generative - de la profesori la algoritmi

  • Posted on: 26 February 2025
  • By: Redacția ApTI

Introducere

Inteligența artificială generativă este una din cele mai rapid adoptate tehnologii. De la medicină, educație și artă, până la prieteni virtuali, sistemele de inteligență artificială generativă sunt folosite atât în mod experimental (pentru artă) cât și într-un mod sistematic (pentru comunicare).

Odată cu popularizarea sistemelor de inteligență artificială generativă, producția de text, video și audio poate deveni automatizată. Însă, decizia de a folosi acești algoritmi are consecințe directe asupra modului în care comunicăm, învățăm și ne documentăm cunoștințele.

În acest articol, investigăm impactul inteligenței artificiale generative asupra educației. Oportunitățile pe care algoritmii le oferă educatorilor și elevilor au efecte nu doar asupra procesului de predare sau învățare, dar pot aduce atingeri drepturilor fundamentale ale omului.

Unele țări au început să-și regândească sistemul educațional în raport cu aceste sisteme generative. În Marea Britanie, guvernul a investit peste 1 milion de lire pentru “crearea de instrumente de inteligență artificială pentru profesori pentru feedback și notare, care să conducă la standarde educaționale ridicate și în creștere”.

O dependență crescândă față de aceste sisteme, adaugă Herkulaas Combrik, expert în aplicarea inteligenței artificiale în educație, poate duce “la o erodare a abilităților de gândire critică atât în rândul elevilor, cât și al educatorilor”. Gândirea critică poate fi augmentată sau slăbită de sistemele generative de inteligență artificială, iar Combrik adaugă că aceste sisteme pot îmbunătăți procesul educațional cât timp ele rămân “centrate pe om”. La nivel european, regulamentul privind inteligența artificială (AI ACT) are ca scop această centrare pe om, prin măsuri de reglementare care duc la transparentizarea acestor sisteme.

Sistemele generative de inteligență artificială au creat o situație nouă și provocatoare pentru sistemele clasice de educație. Însă, provocarea vine mai mult din suma tuturor lucrurilor pe care acești algoritmi nu le pot oferi, deși susțin că o fac.

 

Sub capota algoritmului

Inteligența artificială generativă se bazează pe modele lingvistice mari (Large Language Models, prescurtat frecvent LLM). Un “model lingvistic” este tehnologia care stă și la baza programelor care extrag textul din fotografii (OCR - optical character recognition), care extrag textul dintr-o fotografie cu scris de mână, sau care traduc text dintr-o limbă în alta. Aceste modele transformă cuvintele dintr-o limbă în numere, iar generarea unei propoziții devine o problemă de matematică - mai precis, de statistică. Când un model lingvistic mare produce o propoziție, problema de matematică pe care o rezolvă este una de probabilitate: “Dacă propoziția începe cu cuvintele Ana și are, care este cuvântul care urmează, cel mai probabil? Mere.”

Atuul modelelor lingvistice mari, care stau la baza lui ChatGPT, este că au fost antrenate folosind cantități enorme de date obținute atât din pagini web, dar și din piratarea a numeroase cărți. Aceste date de antrenament stau la baza calculului probabilistic. Dacă după “Ana are…” apare cuvântul “mere” extrem de frecvent, aproape peste tot în datele de antrenare, atunci ChatGPT și alte aplicații similare vor produce propoziția “Ana are mere” mult mai des decât, să zicem, “Ana are de învățat structura celulei pentru ora de biologie”.

Cu cât mai multe date de antrenare au fost folosite pentru a crea un model lingvistic mare, cu atât modelul poate produce text mai divers și variat. Modelele nu pot să prevină producerea unui text care este violent, mincinos, sau supărător. Ele repetă, pur și simplu, o formă care este statistic probabil să fie inteligibilă.

Aceste modele lingvistice mari au fost denumite “papagali stochastici” într-o celebră lucrare de cercetare scrisă de Dr. Emily Bender et al. Autoarele lucrării aseamănă reproducerea pe care o fac aceste modele cu “papagaliceala”. În mintea unui om, cuvintele sunt asociate unor experiențe subiective pe care le-a trăit, unor obiecte din viața reală, unor intenții, pe când, pentru modelele lingvistice, cuvintele sunt asociate unor alte cuvinte - toate, reprezentate prin numere. Atunci când un om vorbește, sensul a ceea ce spune e dat nu doar de cuvintele pe care le folosește, ci și de intenția sa (și de modul în care este înțeleasă). În schimb, atunci când unii cercetători susțin că modelele lingvistice înțeleg limbajul, se bazează pe ideea că sensul a ceea ce spune un vorbitor este dat doar de ce înseamnă cuvintele pe care le folosește.

Dat fiind că programele construite pe baza modelelor lingvistice mari pot genera doar variațiuni ale unor texte pe care deja le-au procesat, din datele de antrenament, deseori textul produs conține idei care denigrează, care reproduc gândiri rasiste, sexiste, etc. Atunci când aceste texte produse nu sunt verificate și sunt folosite ca atare, riscă să ducă la încălcări directe ale drepturilor omului, sau, cel puțin, la propagarea unui discurs al urii.

Unul dintre modurile de a experimenta limitările lui ChatGPT și a programelor similare este prin întrebări de aritmetică simple. Atâta timp cât calculele sunt puse într-o formă care e mai rar întâlnită - spre exemplu, în loc de 15 + 16, calculul e formulat ca 15 - (-16) - este probabil ca aceste programe să greșească calculele.

Aceleași modele lingvistice mari (multimodale) stau și la baza generării de video-uri sau de imagini. Dacă unei aplicații care produce imagini din text i se cere să producă imaginea unui ceas cu limbi care arată ora 6:35, sau 12:05 - ore la care limbile ceasului sunt foarte apropiate - cel mai probabil, rezultatul va fi greșit. Acest lucru se datorează faptului că, în cele mai multe fotografii de pe Internet, limbile ceasurilor sunt poziționate la unghiuri de 90 de grade sau mai mult, spre exemplu arătând 11:10. 

 

Procesul educațional și inteligența artificială

Utilizarea inteligenței artificiale în educație a generat reacții pe plan internațional, de la optimism privind personalizarea educației, până la deplângeri ale scăderii capacității de scriere și gândire critică printre studenți și elevi.

Sistemele contemporane de educație se confruntă cu multiple probleme, de la subfinanțare cronică, analfabetism funcțional (care afectează peste 40% printre tinerii din România), dificultatea de pregătire a tinerilor pentru a deprinde aptitudini de gândire critică și științifică, până la inadecvarea curriculei și standardizarea crescândă a cunoașterii și modurilor de exprimare.

Când a apărut televizorul în anii 1950, după cum nota filosoful Neil Postman, modul în care se comunicau informații și cunoștințe a devenit orientat spre entertainmentul vizual, color și dinamic, cu mari personalități, produse și branduri, și nu spre analiză rece, impersonală și riguroasă pe care o impunea un tip de media precum ziarul.

Inteligența artificială generativă propune o schimbare similară de format. Narațiunea dominantă venind dinspre companiile care dezvoltă această tehnologie este că modelul învățământului clasic nu se mai aplică sau este depășit, iar profesorul poate fi ori înlocuit ori augmentat prin sisteme personalizate de învățare.

Această narațiune vede cunoașterea doar ca pe un set de propoziții de produs sau reprodus decontextualizat, nu ca un mijloc de emancipare ca cetățean, după cum credea clasicul teoretician al educației John Dewey, sau ca pe “vehiculul rațiunii” în cuvintele filosofului contemporan al educației David Bakhurst.

Algoritmii care stau la baza inteligenței artificiale generative nu pot să ofere explicații, lămuriri sau să corecteze gândirea interlocutorului. Aceștia nu stochează cunoștințe, ci doar cuvinte, imagini, sau conținut audio-video. Din aceste date stocate, algoritmii reproduc asocieri care arată inteligibil, aproape de limbajul natural uman. Însă, algoritmii nu stochează tot ce ar putea să învețe sau să înțeleagă un om. Neavând abilitatea de a asocia forma unui text cu un set de cunoștințe, nu poate să intuiască ce cunoștințe îi lipsesc unui elev, atunci când pune o întrebare. Sistemele acestea trimit cuvinte la alte cuvinte, într-un proces de buclă, nu cuvinte la lumea exterioară, la experiențe și la obiecte din mediul omului.

Cunoașterea concepută din perspectivă psihopedagogică, deprinsă printr-un proces structurat de învățare, este intențională, adică provine de la poziția unui elev specific, care a înțeles și interpretat într-un mod unic. Aceasta necesită interiorizarea elevului a obiectului de studiu, conform mai multor teoreticieni ai educației.

Mai mult, figura profesorului ca ghid și navigator printre cunoștințe, care modelează gândirea studentului și scoate “musca din borcan” după cum zicea învățătorul de școală primară și marele filosof Wittgenstein, insuflă gândire critică și metodică rămâne, în era abundenței informaționale și dezinformării automatizate, necesară. 

 

Pilonii „revoluției” AI în educație

Trei aspecte definesc inteligența artificială generativă și modul în care aceasta transformă domeniul în care este folosită:

  1. pentru îmbunătățirea tehnologiei, este necesar ca aceasta să fie antrenată continuu, pe cât mai multe date generate de oameni (deoarece antrenarea pe conținut generat tot de modele lingvistice deteriorează calitatea produsului) - de aici rezultă o „foame” de date care împinge multe companii să folosească inclusiv datele cu caracter personal ale utilizatorilor;

  2. conținutul produs poate fi imaginat ca o „medie” a datelor de antrenament, ceea ce duce la o standardizare a formelor de exprimare și de construcție;

  3. utilizarea continuă a acestor tehnologii privează utilizatori de a-și dezvolta intuiția, memoria și gândirea critică (după cum a arătat un studiu al cercetătorilor Microsoft, una dintre companiile care investește cel mai mult în inteligența artificială generativă)

Cercetătoarea Simona Tiribeli avertizează că, inclusiv prin designul interfeței aplicațiilor care folosesc acești algoritmi, se poate manipula moral, afectiv sau informațional utilizatorul.

Structurile argumentative standardizate neutralizează, după spusele filosoafei Marina Garces, gândirea critică, care necesită un risc în exprimare, articulare și abordarea subiectelor. Un studiu din Nature a demonstrat că există tipare lingvistice repetitive și relativ similare produse de inteligența artificială generativă, care pot fi detectate cu ușurință.

Cercetătorii în impactul social al tehnologiei Brett Frischmann și Evan Salinger argumentează că fiecare tehnologie nouă externalizează anumite capacități pe care le au persoanele fizice. Odată ce din ce în ce mai multe capacități omenești (scris, citit, desenat) ajung să fie automatizate, oamenii care le dețineau pot ajunge să le piardă, pas cu pas, până la o dependență ridicată de mașinării pentru lucruri care erau făcute, odată, în mod independent de către om. De exemplu, dacă ChatGPT scrie tot timpul temele elevilor, conform interpretării autorilor, elevii nu vor mai avea această capacitate individuală de scriere și argumentare, sau de reflecție fără ajutorul tehnologiei - sau poate vor avea abilități individuale mai scăzute.  

 

Inteligența artificială generativă în cercetarea științifică

Algoritmii de procesare a limbajului natural au fost folosiți deja de ani buni în procesul de căutare a articolelor de cercetare științifică, stocate în jurnale online. Algoritmi de inteligență artificială generativă, antrenați exclusiv pe lucrări științifice, nu au reușit să producă rezultate mai bune când a venit vorba de căutarea articolelor și sumarizarea lor. Poate cel mai bun exemplu este Galactica, un produs dezvoltat de Meta, care a fost retras după doar 3 zile de utilizare, în 2022. Cercetătorii care și-au exprimat dezaprobarea față de acest produs au argumentat că principalul dezavantaj este că tehnologia asta nu poate determina dacă textul pe care-l produce este real sau fictiv - asta, față de căutarea bazată pe procesarea limbajului natural, care nu produce astfel de „halucinații”.

Când vine vorba redactării de manuscrise pentru articole, algoritmii de inteligență artificială generativi sunt propuși pentru a „elibera” cercetătorii de corvoada scrisului și a le permite să lucreze la cercetarea propriu-zisă. Această falsă dihotomie între comunicare și cercetare reflectă o neînțelegere fundamentală a naturii științei. Procesul iterativ de a comunica, prin text, diagrame, prin cod reproductibil, rezultatele muncii de cercetare este o parte esențială a cercetării însăși.

La celălalt capăt, când acești algoritmi sunt folosiți pentru a scrie evaluări și corecturi ale unor manuscrise, problema „halucinării” se pune, iar, de-a curmezișul procesului. Algoritmii de inteligență artificială generativi pot să inventeze conținut care nu există în manuscris, făcând ca evaluarea trimisă să fie inutilă, o pierdere de timp.

Dat fiind că modelele lingvistice mari reproduc conținut pe care au fost antrenate, ele pot oricând să plagieze conținut direct din alte lucrări științifice. 

 

Cum pot folosi profesorii și elevii inteligența artificială generativă?

Dr. Emily Bender oferă câteva scenarii în care algoritmii discutați în acest articol pot fi folosiți și pot contribui semnificativ la ușurarea unor activități:

  • atunci când cel mai important factor este ca textul să fie inteligibil, corect gramatical și corect din punctul de vedere al folosirii în viața reală a unei anumite limbi;

  • atunci când conținutul produs este extrem de simplu de verificat, când „halucinațiile” sunt evidente, iar conținutul discriminator sau violent este ușor de eliminat din produsul final;

  • când originalitatea nu este necesară.

Atât pentru profesori cât și pentru elevi, traducerile dintr-o limbă în alta și corecturile gramaticale și de scriere sunt exemple de astfel de scenarii. Un scenariu cu potențial este și acela a folosirii inteligenței artificiale generative ca partener de dialog în procesul de a învăța o limbă străină - însă, în acest caz, algoritmul nu poate explica regulile gramaticii, le poate doar executa.

În orice alte scenarii, folosirea algoritmilor de inteligență artificială în educație nu poate produce rezultate dezirabile, sigure, ca să îmbunătățească semnificativ procesul.

În cazul evaluării temelor folosind astfel de algoritmi, există riscul ca temele unor elevi să fie catalogate, în mod nedrept, ca fiind generate cu AI, de către sistemele anti-plagiat folosite în școli și universități, cum ar fi Turnitin. Conform jurnaliștilor de la Bloomberg, Jackie Davalos și Leon Yin, peste 50% din profesorii din Statele Unite ale Americii folosesc sisteme automatizate de detectare a plagiatului sau conținutului generat cu AI. Autorii adaugă că la această scară „chiar și micile rate de eroare se pot acumula rapid” și se pot transforma în acuzații nefondate dar cu consecințe serioase legate de muncă pentru școală a unui elev.

Mai mult, încurajarea necritică de către profesori către utilizarea acestor sisteme poate să ridice niște probleme de natură legală și etică, deoarece cele mai multe sisteme generative sunt mecanisme voalate de supraveghere a utilizatorilor. În astfel de contexte, colaborarea cu sisteme generative poate aduce atingeri la adresa drepturilor fundamentale atât ale profesorilor, când le folosesc pentru întocmirea de fișe de evaluare, cât și la adresa studenților și elevilor.

Încă din 2023, peste 80% dintre studenții din Statele Unite ale Americii au recunoscut că folosesc sisteme de inteligență artificială generativă pentru a-și face temele. „Nu ai idee cât de mult folosim ChatGPT”, declara un student într-un articol de opinie pentru The Chronicle of Higher Education. Aceste tehnologii au fost rapid integrate de către elevi și studenți în modul în care învață și-și pregătesc lucrările individuale pentru școală sau facultate. În acest context, riscul dezinformării automatizate este o problemă reală, mai ales într-un context vulnerabil pentru elev sau student, deoarece acesta încă se află în dezvoltare pe plan intelectual și emoțional.

Conform unui studiu recent publicat în Amfiteatru Economic, peste 40% dintre studenții români din București intervievați pentru studiu spun că rezultatele generate de inteligența artificială generativă sunt “rar” sau “niciodată” incorecte. Pentru a identifica greșeala, trebuie să știi răspunsul corect. Iar asta presupune că știi deja ce vrei să afli. Prin urmare, răspunsul dat de studenți pare a fi o percepție distorsionată legată de cum funcționează sau halucinează, în mare, sistemele generative.

 

AI ACT și Etica Utilizării AI în Educație

Regulamentul privind inteligența artificială (AI ACT) este un act normativ european care se ocupă cu reglementarea, pe baza unei piramide a riscului (de la risc minim la risc inacceptabil), a sistemelor de inteligență artificială. Acest regulament impune norme de transparență pentru sistemele de inteligență artificială, precum cele generative.

Regulamentul interzice strict, ca risc inacceptabil, orice tip de manipulare „comportamental-cognitivă” care ar putea fi găsită într-o jucărie pentru minori care funcționează cu inteligență artificială. În cazul de față, pentru contextul educațional, orice produs bazat pe inteligență artificială generativă poate influența utilizatorii săi, comportamental-cognitiv, atât în moduri banale cât și în moduri extreme.

Reprezentările realității pe care le crează sistemele de AI sunt modele bazate nu pe experiență, ca în cazul oamenilor, ci pe date de antrenare, care pot fi înșelătoare, exagerate, false, sau pur și simplu nereprezentative pentru fenomenul pe care încearcă să-l reprezinte.

În cadrul educațional, utilizarea acestor sisteme pot duce la situații neprevăzute de AI ACT, cum ar fi încălcarea drepturilor fundamentale, mai ales dreptul la viață privată, prin colectarea datelor cu caracter personal și a tuturor interacțiunilor cu produsul.

Acest lucru nu este adresat de AI ACT, iar influențarea percepțiilor asupra anumitor evenimente sau categorii sociale produsă de modelele și reprezentările realității sistemelor de AI generativ pot consolida anumite prejudecăți, sau pot crea unele noi. Dacă în datele de antrenare ale unui sistem generativ ca ChatGPT care a primit prompt-ul de a genera o imagine, pentru o temă legată de profesorul ideal pentru ora de istorie, apare invariabil o persoană de sex masculin ca profesor de istorie, în multiple ture de generare, se poate crea sau consolida ideea că istoria se predă, în școală, doar de astfel de persoane.

Într-o astfel de situație complexă, etica tehnologică și etica privind tehnologia devin esențiale. Sistemele generative de inteligență artificială, fiind permise prin lege, pot fi respinse din punct de vedere principial. Dacă sistemele respective propagă, constant și continuu, dezinformare, stereotipuri, manipulare informațională, cognitivă și afectivă, se poate argumenta împotriva folosirii lor de către elevi și studenți, pe baze etice. Doar că acest lucru este practic imposibil de implementat, astfel fiind nevoie de o altă rută spre un rezultat dezirabil din punct de vedere etic.

Un răspuns la problema raportului AI-studenți oferit de mai multe universități internaționale constă în integrarea acestor sisteme în educație sub reguli clare, bazate pe transparență, responsabilitate și utilizare etică. Sistemele acestea pot fi integrate în moduri care nu afectează dezvoltarea cognitivă emoțională a studenților și elevilor, dar riscurile structurale la adresa vieții private ridică multe semne de întrebare privind această poziție încurajatoare.

Cercetătoarea în neuroștiințe și educație Maryanne Wolf argumenta că, în era digitală, este nevoie de un sistem prin care educația tradițională, lentă, metodică, riguroasă, să se îmbine cu cea digitală, rapidă, expansivă și creativă, și una să n-o influențeze negativ pe cealaltă, ci în schimb să se complementeze reciproc. Wolf numea acest fenomen „biliteracy” (bieducație), în care aptitudinile digitale, în raport, de exemplu, cu inteligența artificială, să se îmbine cu cele clasice, legate de analiză critică a textelor și de scriere.

Acest biliteracy trebuie suplimentat de o poziție etică. O poziționare echidistantă și critică față de sistemele de inteligență artificială generative, care vede atât potențialul ascuns în aceste tehnologii, dar și modurile nocive în care afectează drepturile fundamentale, este, poate, o poziție fragilă dar dezirabilă atât pentru studenți cât și pentru profesorii lor.

Add new comment

Plain text

  • No HTML tags allowed.
  • Web page addresses and e-mail addresses turn into links automatically.
  • Lines and paragraphs break automatically.