Technologie oparte na sztucznej inteligencji mogą analizować zdjęcia, nagrania i teksty, tworząc realistyczne symulacje osób, które odeszły. Jednakże, za tym potencjalnie rewolucyjnym rozwiązaniem, kryją się poważne zagrożenia dla zdrowia psychicznego i godności zmarłych – ostrzegają badacze z Uniwersytetu Cambridge.
„Cyfrowe duchy”: Wsparcie w żałobie czy poważne zagrożenie?
W artykule opublikowanym w czasopiśmie „Philosophy and Technology”, naukowcy apelują o wprowadzenie rygorystycznych protokołów bezpieczeństwa w projektowaniu technologii cyfrowego życia pozagrobowego. Bez tych środków ostrożności istnieje ryzyko, że interakcje z cyfrowymi symulacjami zmarłych mogą przynieść więcej szkód niż korzyści.
Deadboty lub Griefboty to chatboty oparte na sztucznej inteligencji. Symulują one wzorce językowe i cechy osobowości zmarłych, wykorzystując pozostawione przez nich cyfrowe ślady. Niektóre firmy oferują już usługi, które umożliwiają kontakt z cyfrowymi symulacjami zmarłych. Jednak, jak twierdzą badacze, nawet początkowe korzyści z tego rodzaju interakcji, mogą przerodzić się w przytłaczający ciężar emocjonalny dla osób w żałobie.
Szybki postęp w dziedzinie generatywnej sztucznej inteligencji otwiera drzwi dla ożywienia zmarłych bliskich dla praktycznie każdego z dostępem do internetu i podstawową wiedzą. Jednakże, ten obszar sztucznej inteligencji to etyczne pole minowe. Priorytetem powinna być godność zmarłego i zapobieżenie naruszeniom tej godności.
Etyczne pole minowe generatywnej sztucznej inteligencji
Dr. Katarzyna Nowaczyk-Basińska, współautorka badania z Leverhulme Center for the Future of Intelligence w Cambridge, podkreśla konieczność ochrony zarówno danych „dawców”, jak i osób wchodzących w interakcję z cyfrowymi zmarłymi AI. Symulacje sztucznej inteligencji mogą być pozostawione jako prezent pożegnalny dla bliskich, jednakże muszą być podejmowane środki zapobiegawcze, aby uniknąć nadużyć.
Interakcje z cyfrowymi symulacjami zmarłych mogą prowadzić do wytworzenia silnych więzi emocjonalnych, co czyni ludzi szczególnie podatnymi na manipulację. Istnieje także ryzyko zniekształcenia osobowości, gdzie nierealistyczne lub traumatyczne symulacje zmarłych mogą pogłębić żal i utrudnić proces żałoby.
Kwestia kontroli nad cyfrowym wizerunkiem zmarłego jest istotna. Brak przejrzystości i kontroli może prowadzić do nadużyć i krzywdzenia godności zmarłych oraz ich rodzin. Wprowadzenie przepisów regulujących wykorzystanie botów zmarłych jest niezbędne, aby zapobiec sytuacjom, gdzie symulacje są wykorzystywane w sposób pozbawiony szacunku.
Cyfrowe reinkarnacje: Biznes na śmierci bliskich?
Już teraz niektóre firmy oferują usługi tworzenia cyfrowych klonów zmarłych za pomocą sztucznej inteligencji. Platforma Project January początkowo wykorzystywała modele GPT i aplikacje takie jak HereAfter, a podobne praktyki zyskują popularność również w Chinach i Korei.
Jednym z przykładów jest „MaNana”, usługa AI pozwalająca stworzyć bota imitującego zmarłego dziadka. W hipotetycznym scenariuszu żałobnik początkowo oczarowany technologią, po zakończeniu darmowego okresu próbnego zaczyna otrzymywać nachalne reklamy tworzone głosem i w stylu zmarłego bliskiego.
Te przykłady rodzą pytania o etyczne aspekty i potencjalne zagrożenia związane z tym biznesem. Czy firmy wykorzystują żałobę i traumę ludzi dla zysku? Jakie są granice ingerencji w wizerunek i pamięć zmarłych? Czy tworzenie cyfrowych duchów nie opóźnia lub nie utrudnia procesu żałoby?
Chcesz podzielić się newsem lub zaproponować temat artykułu? Zapraszam do kontaktu! Zuzanna@radiobp.org
Drogi Czytelniku!
Z radością witamy Cię na naszym portalu informacyjnym, prowadzonym przez osoby z niepełnosprawnościami. Cieszymy się, że jesteś z nami i stajesz się częścią naszej społeczności. Twoja obecność na naszym portalu jest dla nas ogromną motywacją do dalszej, owocnej pracy. Dziękujemy, że jesteś z nami!
Zespół Portalu Informacyjnego Bezpieczna Podróż