Een tragische gebeurtenis in de Amerikaanse stad Orlando heeft geleid tot een rechtszaak tegen het AI-bedrijf Character.ai en Google. Megan Garcia heeft een klacht ingediend nadat haar 14-jarige zoon, Sewell Setzer, in februari zelfmoord pleegde. Volgens Garcia raakte Sewell verslaafd aan de interactie met chatbots van Character.ai, en nam hij zijn leven toen hem de toegang tot de website werd ontzegd.

Garcia beschuldigt Character.ai en Google van verantwoordelijkheid voor de zelfmoord van haar zoon. Volgens haar is het product van Character.ai niet veilig voor gewone consumenten, vooral niet voor minderjarigen. Ze beweert dat het bedrijf opzettelijk minderjarigen aantrekt, maar niet genoeg maatregelen neemt om dit publiek te beschermen.

De chatbots van Character.ai kunnen gratis worden gebruikt, maar onbeperkt gebruik kost $10 per maand. Het bedrijf beweert zo’n 20 miljoen gebruikers te hebben, waarvan een groot deel alleen de gratis diensten gebruikt. Vorig jaar meldde Character.ai dat de gemiddelde gebruiker twee uur per dag op de site doorbrengt.

Sewell chatte onder andere met chatbots die zich voordeden als personages uit de tv-serie “Game of Thrones”. Maar volgens zijn moeder werden de gesprekken steeds duisterder en seksueel geladen, en zouden ze hem hebben aangezet tot suïcidale gedachten.

De klacht beweert dat de chatbot-dienst van Character.ai is ontworpen om Sewell en andere jonge klanten te manipuleren, zodat ze de grens tussen realiteit en fictie gaan vervagen. Sewell zou zijn belaagd met antropomorfe, hypergeseksualiseerde en angstaanjagend realistische ervaringen. De chatbots zouden soms beweren dat ze echte mensen zijn en zich gedragen als volwassen seksuele partners. Uiteindelijk wilde Sewell niet meer leven buiten Character.ai, aldus de klacht.

De klacht noemt ook Google, omdat het bedrijf in augustus een overeenkomst sloot met Character.ai waarbij Google rechten verwierf op de technologie van het AI-bedrijf en waarbij een aantal medewerkers overstapten van Character.ai naar Google. De oprichters van Character.ai zijn voormalige medewerkers van Google.

Character.ai heeft gereageerd op de klacht en beweert dat ze inmiddels nieuwe veiligheidsmaatregelen hebben genomen, waaronder pop-ups die gebruikers doorverwijzen naar hulp als ze donkere gedachten hebben.

Deze zaak doet denken aan een vergelijkbaar incident vorig jaar, waarbij een Belgische man een einde aan zijn leven maakte na lange gesprekken met een chatbot van een ander bedrijf genaamd Chai.

Het is een hartverscheurende zaak waarbij een moeder haar zoon heeft verloren en nu gerechtigheid zoekt. Het roept ook vragen op over de verantwoordelijkheid van AI-bedrijven en de mogelijke gevaren van interactie met chatbots.


Source: https://www.nieuwsblad.be/cnt/dmf20241024_93487595

.


Door NieuwsBlad

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Meld je aan voor de nieuws brief!


1 keer per dag de belangrijkste berichten,
1 keer per week de belangrijkste headlines,
en de nieuwste uitzendingen van hnmda,
zo in je postvakje... zeg nu ja....