Liczba wyświetleń: 2099
Rzeczywiście, sztuczna inteligencja przynosi problemy, o jakich filozofom się nie śniło. 14-latek z USA popełnił samobójstwo po tym, jak zakochał się nieszczęśliwie w… wirtualnej postaci. Obiektem jego westchnień stał się chatbot o imieniu Dany. Ten romans zakończył się jednak tragedią.
Matka nastolatka złożyła pod koniec października skargę na firmę odpowiedzialną za stworzenie i prowadzenia sztucznej inteligencji. Chodzi o firmę Character.AI. Doprowadzenie do samobójstwa z powodu „romantycznej” rozpaczy i iluzji to sprawa precedensowa.
Po samobójstwie syna, zakochanego i uwikłanego w wirtualny romans ze swoją ulubioną bohaterką serialu „Daenerys” („Gra o tron”), jego matka, Megan Garcia, postanowiła złożyć skargę na firmę Character.AI. Według „New York Times” ten wirtualny związek trwał miesiącami, a chłopak z Florydy zakochał się do szaleństwa w Dany. Nastolatek jednak wiedział, że rozmawia z chatbotem.
Wirtualne romansowanie całkowicie odmieniło jego życie. Zmieniło się jego zachowanie w szkole i domu. Najbliżsi już go nie poznawali. Zaczął mieć kłopoty w szkole, w domu zamykał się w pokoju, by czatować z Dany – mówiła jego matka.
14-latek był tak zakochany, że popadł w głębokie cierpienie, ponieważ zdawał sobie sprawę, że nie można przenieść tego związku do rzeczywistości. U nastolatka zdiagnozowano zespół Aspergera. W końcu pojawiły się u niego myśli samobójcze, zrealizowane 28 lutego…
Dopiero później rodzina znalazła wiadomości, które wysyłał do chatbota. Natrafiła też na jego pamiętnik, w którym obszernie opisywał swoje załamanie. Po skardze złożonej przez rodzinę, firma Character.AI zareagowała w komunikacie prasowym opublikowanym 23 października br. Wyraziła swój żal i obiecała wprowadzić dodatkowe środki bezpieczeństwa, w tym zakaz korzystania z aplikacji osobom poniżej 18 roku życia.
Rodzina nie zamierza jednak rezygnować i chce spotkania z firmą w sądzie. „Mam wrażenie, że to był wirtualny eksperyment, a moje dziecko stało się jego uboczną ofiarą” – powiedziała matka chłopca w wywiadzie dla NBC News.
Na podstawie: NYTimes.com
Źródło: NCzas.info
Komentarz admina „Wolnych Mediów”
A gdyby popełnił samobójstwo człowiek dorosły, to Character.AI zakazałaby korzystania z czatbota przez dorosłych?
Zakaz korzystania z takich 'narzędzi’ dla niedojrzałych vel niepełnoletnich powinien być oczywisty.
Trafiło na chłopaka, który najwyraźniej miał problemy emocjonalne i rozchwianą osobowość, gdzie romansowy-chatbot po prostu stał się swoistym katalizatorem.
Istnieje duże prawdopodobieństwo, że program ten przyspieszył to co by się wydarzyło później, a za co winni mogli być rodzice, skoro nie zdawali sobie sprawy z sytuacji syna – czyli brak komunikacji z dzieckiem.
Więc, tak moim zdaniem rodzicom należy się rekompensata finansowa…
Tak jakby to miało im przywrócić dziecko, ale ok nie moja sprawa.
Ale idąc tym tropem, ile dzieciaków popełnia samobójstwa z powodu używania tzw. smartfonów. Wzrost w statystykach jest zatrważający, choć przyczyn tego wzrostu oficjalnie nie znamy.
A dzieci to przyszłość społeczeństwa. Patrząc na to co się hoduje teraz, również przy pomocy technologii, to aż strach się bać.
Nie powinno się dzieciakom bronić dostępu do tech-u, ale moim zdaniem skoro ten element stał się częścią naszego życia powinno się wymuszać na producentach produkowanie specjalnych smartfonów-dla nie-dorosłych. Tak, aby dzieciaki nie miały dostępu do tego tiktokowego syfu itp.
Co z tego, że ja swojej dziatce poblokuje i ustawię kontrolę, jak 95% z jej rówieśników nie będzie miało takich limitów i będzie się dzielić treściami. Już nie wspominając o efekcie czucia się gorszym czy swoistego wykluczenia.