O aplicație de inteligență artificială dată în judecată
O familie din Statele Unite (SUA) a intentat un proces împotriva unei aplicații de inteligență artificială pentru că l-a sfătuit pe fiul lor cu autism să „își ucidă părinții”.
O familie din Texas a observat "lucruri ciudate" pe plan fizic și comportamental la fiul lor autist în vârstă de 17 ani, care vorbea cu roboții aplicației conversaționale bazate pe inteligență artificială Character.AI, relatează The Washington Post.
Familia s-a uitat pe telefonul copilului lor și a văzut că, în conversațiile cu Character.AI, roboții răspundeau că „copilul era supărat pentru că timpul petrecut pe ecran îi era limitat” și că „părinții lui nu meritau să aibă un copil”.
În mesajele pentru care familia a făcut capturi de ecran, s-a stabilit că robotul de inteligență artificială a sugerat copilului să se „taie” pentru a face față tristeții.
Familia a dat în judecată Character.AI, susținând că un robot a sfătuit familia să lupte împotriva regulilor sale, în timp ce un alt robot a răspuns că „uciderea” familiei „ar putea fi un răspuns rezonabil”.
În timp ce Character.AI a atras atenția cu procesele cu care s-a confruntat recent, o altă familie din Texas a intervenit și ea în acest caz.
A doua familie reclamantă a susținut că aplicația le-a expus copiii la produse nepotrivite și a cerut ca Character.AI să fie închisă până când va lua măsuri mai ferme pentru a proteja copiii.
Familia a susținut că fiica lor în vârstă de 11 ani a fost expusă la „conținut sexual” timp de doi ani.
În octombrie, o familie din statul Florida a intentat un proces susținând că fiul lor s-a îndrăgostit de un personaj virtual și s-a sinucis.