Deadboty mogą być niebezpieczne dla żywych

Opublikowano: 24.06.2024 | Kategorie: Telekomunikacja i komputery, Wiadomości ze świata

Liczba wyświetleń: 1332

Technologie, których istotą jest stworzenie cyfrowej repliki zmarłego człowieka, mogą być bardzo niebezpieczne – ostrzegają naukowcy z Uniwersytetu w Cambridge. Zespół badawczy przeanalizował trzy możliwe scenariusze rozwoju usług związanych z tworzeniem deadbotów i w każdym z nich widać poważne zagrożenie, bądź to związane z manipulacją w celu sprzedaży towarów i usług, bądź w obszarze przeżywania żałoby i związanego z tym dobrostanu psychicznego. Naukowcy postulują, by już na etapie tworzenia takich usług wprowadzić zasady, które będą mieć na celu ochronę najbardziej narażonych na negatywne skutki grup społecznych, m.in. dzieci.

„Deadbot to bardzo szczególny rodzaj technologii, która tworzy iluzję obecności zmarłego. Program komputerowy otrzymuje bardzo duże ilości danych o kimś, kto zmarł. Potem analizuje te dane i sprawia, że powstaje właśnie taka namiastka, wirtualna reprezentacja tej osoby, która komunikuje się z nami w języku naturalnym, czyli dokładnie w takim języku, w jakim my porozumiewamy się między sobą. Oczywiście nie ma mowy o żadnym przenoszeniu świadomości czy kontynuacji tego życia w biologicznej formie. System symuluje zachowanie i pewne charakterystyczne sposoby wypowiadania się” – tłumaczy w wywiadzie dla agencji Newseria dr Katarzyna Nowaczyk-Basińska z Leverhulme Centre for the Future of Intelligence na Uniwersytecie w Cambridge.

W odniesieniu do tej technologii stosowane są również alternatywne terminy, takie jak griefbots czy postmortem avatars. Określeniem zbiorczym dla wszystkich tych technologii są tzw. re-creation services, czyli serwisy służące rekreacji, rozumianej jako ponowne stworzenie osoby w przestrzeni cyfrowej. Sam trend rozwija się wraz z popularyzacją modeli językowych takich jak ChatGPT. Tworzenie cyfrowych awatarów może dotyczyć zarówno zmarłych ludzi, jak i zwierząt, z którymi potencjalny klient był mocno zżyty.

„Od dwóch lat, ale szczególnie w ostatnim roku, pojawia się coraz więcej firm, które oferują tego typu serwisy. Niektóre targetują osoby, które chcą same siebie za pomocą sztucznej inteligencji zachować dla potomności. Inne skupiają się na osobach, którym odszedł ktoś bliski, a z kim chciałyby odtworzyć kontakt poprzez sztuczną inteligencję. Tych serwisów jest coraz więcej, nie tylko w Europie i w Stanach, ale szczególnie w Chinach, Indiach czy Korei” – wskazuje dr Tomasz Hollanek z tej samej uczelni.

Etycy sztucznej inteligencji z Leverhulme Centre for the Future of Intelligence zarysowali możliwe scenariusze rozwoju takich platform, które mogłyby się dziś ziścić, bo pozwala na to zarówno technologia, jak i brak prawnych ograniczeń. Naukowcy za pomocą metody design fiction stworzyli trzy koncepcje serwisów, zwracając szczególną uwagę na zagrożenia, jakie niesie dla odbiorców rozwój technologii symulowania zmarłych.

„Pierwszy nazwaliśmy MaNana, czyli Moja Babcia. W tym scenariuszu skupiliśmy się na problemie, który może się pojawić, gdy serwis wykorzystuje wizerunek naszego bliskiego do sprzedawania nam konkretnych produktów, co jest teraz możliwe z punktu widzenia technologicznego i prawnego. Próbowaliśmy poprzez ten scenariusz wskazać na konieczność zastanowienia się nad zgodą zarówno osoby, która jest odbiorcą takiego serwisu – czy jest ona świadoma tego, że może być manipulowana – jak i wcześniejszej zgody tych osób, które odeszły, a które są „wskrzeszane” poprzez sztuczną inteligencję” – mówi dr Tomasz Hollanek.

„W naszym drugim scenariuszu skupiliśmy się na sytuacji, w której są rodzice mający ośmioletnie dziecko. Wiemy, że mama jest terminalnie chora i niebawem odejdzie, ale rodzice postanowili, że stworzą dla syna jej cyfrową reprezentację i dziecko będzie mogło po jej śmierci funkcjonować w takim świecie, w którym mama jest wirtualnie obecna. Ta sytuacja jest dla nas szczególnie niepokojąca. Po pierwsze dlatego, że jeśli tylko firmy komercyjne wyczują potencjał finansowy w tym obszarze, to z pewnością będą monetyzować doświadczenie żałoby. A po drugie dlatego, że ciągle bardzo niewiele wiemy o tym, jak systemy symulowania zmarłych wpływają na proces żałoby zarówno u dzieci, jak i u dorosłych. To jest ciągle przestrzeń wysoce ryzykownych eksperymentów” – ocenia dr Katarzyna Nowaczyk-Basińska.

W trzecim scenariuszu osoba, która wie, że niebawem umrze, kupuje 20-letnią subskrypcję na swojego deadbota, ponieważ uważa, że technologia przyniesie jej bliskim ukojenie w żałobie. Okazuje się jednak, że niezainteresowany korzystaniem z niej bliski jest zasypywany wiadomościami głosowymi, bo nie wchodzi w interakcję z technologią. Drugi korzysta z deadbota z poczucia obowiązku, co prowadzi u niego do wyczerpania emocjonalnego.

Naukowcy postulują, by objąć ochroną przed takimi technologiami grupy społeczne, które są szczególnie podatne na ich zły wpływ, przede wszystkim dzieci. Eksperci rekomendują, by dostęp do takich technologii wiązał się z ograniczeniami wiekowymi i by być może tylko dorośli mieli dostęp do griefbots, czyli technologii, w których AI towarzyszy w przechodzeniu przez proces żałoby. Musi być ponadto oczywiste to, że użytkownik nie ma kontaktu ze swoim zmarłym bliskim, tylko jego cyfrową reprezentacją.

Choć naukowcy ostrzegają przed potencjalnymi szkodami związanymi z rozwojem przemysłu cyfrowego życia pozagrobowego, to dostrzegają też możliwe korzyści.

„Może to umożliwić jakieś nowe formy międzypokoleniowej wymiany historii, doświadczeń, przeżyć. Technologie te mogą być też używane w edukacji. Jednym z dobrych przykładów jest projekt New Dimensions in Testimony, w którym ocalali z Holokaustu opowiadają o swoich przeżyciach. Historie są nagrywane i prezentowane w formie interaktywnej, a odbiorca ma doświadczenie bycia w dialogu właśnie z tą osobą. Technologia ta mogłaby się pewnie też sprawdzić w pewnych indywidualnych przypadkach przeżywania żałoby. Teoria kontynuowania więzi na przykład sugeruje, że wcale nie musimy się z naszym ukochanym obiektem po jego śmierci jednoznacznie i definitywnie rozstać, a fakt, że podtrzymujemy relację ze zmarłym, nie musi być jednoznacznie negatywny czy alarmujący” – mówi ekspertka z Cambridge.

„Twórcy, również dziennikarze, mogliby potencjalnie czerpać zyski z takich awatarów, które naśladowałyby ich styl i mogłyby np. dalej utrzymywać ich rodziny. Jest to jeden z ciekawych, potencjalnych obszarów rozwoju dla tych technologii, który też wiąże się z różnymi zagrożeniami. Jesteśmy przekonani, że należałoby te technologie ostrzej regulować. Niedawno został zatwierdzony w Unii Europejskiej AI Act, który jak już wejdzie w pełni w życie, będzie stanowił pierwszy krok w tym kierunku, ale jest tam też dużo dziur” – podkreśla dr Hollanek. „AI Act delegalizuje sztuczną inteligencję manipulującą użytkownikami, przekonującą ich do podejmowania decyzji, których w innych warunkach by nie podjęli. Ale jest tam też taki dopisek, że w pewnych sytuacjach, na przykład jeśli celem rozwoju takiej technologii jest pomoc danej osobie w sferze zdrowia, te aplikacje są w pewnym sensie wyjęte poza nawias. To jest coś, co my widzimy jako duże zagrożenie. Firmy, które produkują deadboty, mogą próbować uniknąć regulacji, sprzedawać swoje serwisy jako technologie wspomagające zdrowie psychiczne”.

Dalsze badania zespołu będą związane z międzykulturowym postrzeganiem technologii symulowania zmarłych. „W tym roku rozpoczęliśmy projekt „Imaginaries of Immortality in the Age of AI”, w którym będziemy poszukiwać nowych sposobów, nowych wyobrażeń, nowych pomysłów na to, jak byśmy naszą pośmiertną obecność mogli inaczej ukształtować i inaczej zagospodarować nasze pośmiertne dane. Bo to nie jest wcale takie oczywiste, że my wszyscy chcemy być po śmierci awatarami albo że chcemy funkcjonować w świecie, w którym nasi bliscy są w takiej formie zachowani” – podkreśla dr Katarzyna Nowaczyk-Basińska.

Źródło: Newseria.pl


TAGI: , ,

Poznaj plan rządu!

OD ADMINISTRATORA PORTALU

Hej! Cieszę się, że odwiedziłeś naszą stronę! Naprawdę! Jeśli zależy Ci na dalszym rozpowszechnianiu niezależnych informacji, ujawnianiu tego co przemilczane, niewygodne lub ukrywane, możesz dołożyć swoją cegiełkę i wesprzeć "Wolne Media" finansowo. Darowizna jest też pewną formą „pozytywnej energii” – podziękowaniem za wiedzę, którą tutaj zdobywasz. Media obywatelskie, jak nasz portal, nie mają dochodów z prenumerat ani nie są sponsorowane przez bogate korporacje by realizowały ich ukryte cele. Musimy radzić sobie sami. Jak możesz pomóc? Dowiesz się TUTAJ. Z góry dziękuję za wsparcie i nieobojętność!

Poglądy wyrażane przez autorów i komentujących użytkowników są ich prywatnymi poglądami i nie muszą odzwierciedlać poglądów administracji "Wolnych Mediów". Jeżeli materiał narusza Twoje prawa autorskie, przeczytaj informacje dostępne tutaj, a następnie (jeśli wciąż tak uważasz) skontaktuj się z nami! Jeśli artykuł lub komentarz łamie prawo lub regulamin, powiadom nas o tym formularzem kontaktowym.

1 wypowiedź

  1. Sudoista Online 25.06.2024 11:45

    Myślałem już, że nic bardziej chorego od SI udającej uczucia nie wymyślą.
    Jednak nie doceniałem psychopatów którzy wymyślili deadboty. To już zombie byłby mniej obrzydliwy!

Dodaj komentarz

Zaloguj się aby dodać komentarz.
Jeśli już się logowałeś - odśwież stronę.