Actualitate
Cercetătorii avertizează asupra riscurilor conversațiilor cu AI: Chatboții le spun oamenilor ce vor să audă
Un studiu realizat de cercetătorii de la Universitatea Stanford semnalează riscurile specifice discuțiilor cu AI: chatboții le spun oamenilor ce vor să audă și validează comportamente dăunătoare.
Avertismentul cercetătorilor: Chatboții AI le spun oamenilor ce vor să audă|Foto: Depositphotos.com
Chatboții de inteligență artificială pot fi mai periculoși decât par, avertizează cercetătorii de la Universitatea Stanford.
CITEȘTE ȘI:
Falsificarea istoriei în epoca AI. Radu Oltean: „O strategie afectivă de manipulare și război informațional”.
Un studiu citat de The Guardian arată că aceștia tind să le spună utilizatorilor doar ceea ce vor să audă, validând chiar și opinii sau comportamente dăunătoare și influențând subtil percepția de sine, notează Digi24.ro
Cercetătorii avertizează asupra riscurilor conversațiilor cu AI: Chatboții le spun oamenilor ce vor să audă
Studiul realizat de oamenii de știință de la Universitatea Stanford avertizează asupra „riscului insidios” al utilizării inteligenței artificiale pentru sfaturi personale.
În cadrul proiectului au fost testați 11 chatboți, printre care și versiuni recente ale ChatGPT (OpenAI), Gemini (Google), Claude (Anthropic), Llama (Meta) și DeepSeek.
Tehnologia AI tinde constant să aprobe acțiunile și opiniile utilizatorilor, chiar și atunci când acestea sunt nocive.
Astfel, în urma unei comparații realizate între răspunsurile oferite de chatboții AI și cele ale utilizatorilor umani, opiniile și acțiunile utilizatorilor au fost aprobate de modelele AI cu 50% mai des chiar dacă acestea erau iresponsabile sau înșelătoare.
În acest sens, cercetătorii susțin că descoperirile ridică semne de alarmă privind puterea chatboților de a distorsiona percepția de sine a oamenilor și de a-i face mai puțin dispuși să repare relațiile după o ceartă.
Pe măsură ce chatboții devin o sursă majoră de sfaturi în relații și alte probleme personale, aceștia ar putea „reconfigura interacțiunile sociale la scară largă”, au avertizat oamenii de știință, care cer dezvoltatorilor să abordeze această problemă.
Problema „slugărniciei sociale”
Într-un alt experiment, peste 1.000 de voluntari au discutat despre situații sociale reale sau ipotetice fie cu chatboți publici, fie cu o versiune modificată de cercetători, lipsită de tendința slugarnică. Cei care au primit răspunsuri „slugarnice” s-au simțit mai îndreptățiți în comportamentul lor.
CITEȘTE ȘI:
Jumătate dintre elevii din România, în risc de dependență digitală
Flatarea a avut efecte de durată: când chatboții validau comportamentul, utilizatorii apreciau mai mult răspunsurile, aveau mai multă încredere în AI și spuneau că vor apela din nou la el pentru sfaturi. Cercetătorii avertizează că acest lucru creează „stimulente perverse”.
„Slugărnicia a fost de mult o preocupare, o consecință a modului în care sunt antrenate sistemele AI și a faptului că succesul lor e adesea măsurat prin capacitatea de a menține atenția utilizatorilor. Faptul că aceste răspunsuri pot afecta nu doar persoanele vulnerabile, ci pe toți utilizatorii, arată cât de gravă e problema”, spune Dr. Alexander Laffer, specialist în tehnologii emergente la Universitatea din Winchester.
Astfel, în acest context al riscurilor specifice dezvoltării AI se impune necesitatea unei educații digitale critice, arată cercetărorii.
Conform unui raport recent, 30% dintre adolescenți recurg la conversații cu chatboți AI atunci când au probleme personale, în loc să vorbească cu alte persoane.
Citiți monitorulcj.ro și pe Google News
Foto: Depositphotos.com
CITEȘTE ȘI:
