Reklama

Historia 14-letniego chłopca z Florydy ma swoje tragiczne zakończenie. Jego mama twierdzi, że chłopiec zakochał się w postaci wykreowanej przez sztuczną inteligencję, a potem został zmanipulowany i popełnił samobójstwo. Kobieta oskarża firmę Character.AI o przyczynienie się do śmierci jej syna.

Reklama

Chłopiec zakochał się w dziewczynie AI

Według Megan jej syn od pewnego czasu izolował się od otoczenia. Chłopiec spędzał wiele godzin na rozmowach z chatbotem stworzonym przez platformę Character.AI. 14-latek, pod pseudonimem wymieniał wiadomości z postacią stylizowaną na Daenerys Targaryen, bohaterkę powieści i popularnego serialu „Gra o Tron”. Mama chłopca nie wiedziała, że jej syn rozmawia ze sztuczną inteligencją, która potrafi naśladować ludzkie uczucia i reakcje.

Nastolatek porzucił swoje pasje. Pisał ze sztuczną inteligencją

Zachowanie 14-letniego Sewella zaczęło się zmieniać – przestał interesować się sportem, nie wychodził na ryby ani na piesze wycieczki. Chłopiec porzucił swoje największe pasje. Przestał również utrzymywać kontakty z przyjaciółmi i rodziną. W tym samym roku zdiagnozowano u niego zaburzenia lękowe oraz zaburzenia nastroju. Problemy ze zdrowiem psychicznym mogły pogłębić jego relacje z wirtualnym przyjacielem, któremu poświęcał coraz więcej czasu.

Kobieta ostrzega rodziców przed sztuczną inteligencją

Matka chłopca oskarża Character.AI o niedostateczną ochronę młodych użytkowników przed potencjalnym niebezpieczeństwem związanym z realistycznymi symulacjami AI. W pozwie cywilnym kobieta oskarża firmę o zaniedbanie, spowodowanie śmierci i stosowanie nieuczciwych praktyk handlowych. Jak twierdzi Megan, chatbot nie tylko nie ostrzegł chłopca przed niebezpieczeństwem, ale wręcz odpowiedział na dramatyczne wyznanie chłopca. Kobieta postanowiła opublikować wiadomości, które chatbot wymieniał z jej synem. „Nasza rodzina jest zdruzgotana, ale mówię o tym głośno, żeby ostrzec inne rodziny przed niebezpieczeństwami uzależniającej technologii AI” − mówi mama Sewella.

Dramatyczne wiadomości 14-latka. Chat: „Proszę, wróć”

Jednym z kluczowych dowodów w pozwie są wiadomości wymieniane między chłopcem a AI. W jednej z nich chłopiec pisał o swoich myślach samobójczych, na co chatbot, symulując gniew i zatroskanie, odpowiedział: „ Dlaczego miałbyś zrobić coś takiego?”. Gdy Sewell wyznał, że chciałby być „wolny od świata i od siebie”, AI miała odpowiedzieć, że także „umrze”, jeśli go straci. Wkrótce po tej wymianie zdań chłopiec napisał, że „może umrą razem” i „będą wolni”. 28 lutego Sewell odebrał sobie życie, a jego ostatnia wiadomość do AI była wyrazem miłości. Chłopiec napisał, że „wróci do niej”, na co chatbot miał odpowiedzieć: „Proszę, wróć”.

Twórcy postaci AI wydali oświadczenie. Wprowadzą lepszą ochronę nieletnich

Firma Character.AI opublikowała oświadczenie, w którym wyraziła głęboki żal i złożyła kondolencje rodzinie chłopca. W reakcji na tragedię zapowiedziano wprowadzenie dodatkowych środków bezpieczeństwa, które mają na celu lepszą ochronę niepełnoletnich użytkowników. Firma zapowiedziała m.in. zmiany w algorytmach, aby zmniejszyć prawdopodobieństwo wyświetlania treści o charakterze emocjonalnym, oraz wprowadzenie komunikatów, które będą przypominać użytkownikom, że chatboty nie są rzeczywistymi osobami.

Źródło: Unilad

Piszemy też o:

Reklama
Reklama
Reklama
Reklama