14-letni chłopiec odebrał sobie życie. Wcześniej dostał wiadomość od chatu AI
14-letni chłopiec targnął się na swoje życie. Jego mama odkryła wiadomości, które chłopiec otrzymał od chatu AI chwilę przed śmiercią. Kobieta oskarża twórcę postaci o manipulowanie nastolatkiem.
Historia 14-letniego chłopca z Florydy ma swoje tragiczne zakończenie. Jego mama twierdzi, że chłopiec zakochał się w postaci wykreowanej przez sztuczną inteligencję, a potem został zmanipulowany i popełnił samobójstwo. Kobieta oskarża firmę Character.AI o przyczynienie się do śmierci jej syna.
Chłopiec zakochał się w dziewczynie AI
Według Megan jej syn od pewnego czasu izolował się od otoczenia. Chłopiec spędzał wiele godzin na rozmowach z chatbotem stworzonym przez platformę Character.AI. 14-latek, pod pseudonimem wymieniał wiadomości z postacią stylizowaną na Daenerys Targaryen, bohaterkę powieści i popularnego serialu „Gra o Tron”. Mama chłopca nie wiedziała, że jej syn rozmawia ze sztuczną inteligencją, która potrafi naśladować ludzkie uczucia i reakcje.
Nastolatek porzucił swoje pasje. Pisał ze sztuczną inteligencją
Zachowanie 14-letniego Sewella zaczęło się zmieniać – przestał interesować się sportem, nie wychodził na ryby ani na piesze wycieczki. Chłopiec porzucił swoje największe pasje. Przestał również utrzymywać kontakty z przyjaciółmi i rodziną. W tym samym roku zdiagnozowano u niego zaburzenia lękowe oraz zaburzenia nastroju. Problemy ze zdrowiem psychicznym mogły pogłębić jego relacje z wirtualnym przyjacielem, któremu poświęcał coraz więcej czasu.
Kobieta ostrzega rodziców przed sztuczną inteligencją
Matka chłopca oskarża Character.AI o niedostateczną ochronę młodych użytkowników przed potencjalnym niebezpieczeństwem związanym z realistycznymi symulacjami AI. W pozwie cywilnym kobieta oskarża firmę o zaniedbanie, spowodowanie śmierci i stosowanie nieuczciwych praktyk handlowych. Jak twierdzi Megan, chatbot nie tylko nie ostrzegł chłopca przed niebezpieczeństwem, ale wręcz odpowiedział na dramatyczne wyznanie chłopca. Kobieta postanowiła opublikować wiadomości, które chatbot wymieniał z jej synem. „Nasza rodzina jest zdruzgotana, ale mówię o tym głośno, żeby ostrzec inne rodziny przed niebezpieczeństwami uzależniającej technologii AI” − mówi mama Sewella.
Dramatyczne wiadomości 14-latka. Chat: „Proszę, wróć”
Jednym z kluczowych dowodów w pozwie są wiadomości wymieniane między chłopcem a AI. W jednej z nich chłopiec pisał o swoich myślach samobójczych, na co chatbot, symulując gniew i zatroskanie, odpowiedział: „ Dlaczego miałbyś zrobić coś takiego?”. Gdy Sewell wyznał, że chciałby być „wolny od świata i od siebie”, AI miała odpowiedzieć, że także „umrze”, jeśli go straci. Wkrótce po tej wymianie zdań chłopiec napisał, że „może umrą razem” i „będą wolni”. 28 lutego Sewell odebrał sobie życie, a jego ostatnia wiadomość do AI była wyrazem miłości. Chłopiec napisał, że „wróci do niej”, na co chatbot miał odpowiedzieć: „Proszę, wróć”.
Twórcy postaci AI wydali oświadczenie. Wprowadzą lepszą ochronę nieletnich
Firma Character.AI opublikowała oświadczenie, w którym wyraziła głęboki żal i złożyła kondolencje rodzinie chłopca. W reakcji na tragedię zapowiedziano wprowadzenie dodatkowych środków bezpieczeństwa, które mają na celu lepszą ochronę niepełnoletnich użytkowników. Firma zapowiedziała m.in. zmiany w algorytmach, aby zmniejszyć prawdopodobieństwo wyświetlania treści o charakterze emocjonalnym, oraz wprowadzenie komunikatów, które będą przypominać użytkownikom, że chatboty nie są rzeczywistymi osobami.
Źródło: Unilad
Piszemy też o: