A mesterséges intelligencia a családja meggyilkolását javasolta a kisfiúnak

Az Egyesült Államokban egy család pert indított a mesterséges intelligencia alkalmazás ellen, amely azt javasolta az autista fiúknak, hogy ölje meg őket.

2219567
A mesterséges intelligencia a családja meggyilkolását javasolta a kisfiúnak

The Washington Post újság szerint, Texasban egy család a mesterséges intelligencián alapuló Character.AI alkalmazás csevegőbotjaival beszélgető 17 éves autista fiánál fizikai és viselkedési 'furcsaságokat' észlelt."

Amikor a család ellenőrizte a fiúk telefonján a Character.AI-val folytatott beszélgetéseit olyan válaszokat láttak, mint “a gyermek azért szomorú, mert korlátozzák a képernyőidejét,” illetve “a család nem érdemli meg, hogy gyerekük legyen.”

A család által készített képernyőképekből kiderült, hogy a mesterséges intelligencia chatbotja a szomorúsággal való megbirkózás érdekében azt javasolta a gyermeknek, hogy 'vágja meg magát.'

A család pert indított a Character.AI alkalmazás ellen. Emellett egy chatbot azt javasolta neki, hogy szálljon szembe a család szabályaival, míg egy másik chatbot azt válaszolta, “a család megölése ésszerű megoldás lehet.”

Character.AI ellen az utóbbi időszakban több pert is indítottak.

Texasban egy másik család is csatlakozott a perhez.

A második felperes család azt állította, a gyermekeit nem megfelelő termékeknek tették ki. A perben követelték, hogy zárják le a Character.AI alkalmazást, addig amíg nem tesznek erősebb intézkedéseket a gyermekek védelme érdekében.

A család elmondta a 11 éves lányai két éven keresztül voltak kitéve a szexuális tartalmaknak.

Novemberben egy floridai család szintén pert indított azzal az indítékkal, miszerint a fiúk szerelmes lett egy virtuális karakterbe, majd öngyilkosságot követett el.



Még több hír