ChatGPT może służyć do fałszowania danych z badań medycznych

Opublikowano: 02.12.2023 | Kategorie: Nauka i technika, Telekomunikacja i komputery, Wiadomości ze świata, Zdrowie

Liczba wyświetleń: 2133

Truizmem jest stwierdzenie, że ChatGPT może być wykorzystywany zarówno do działań pożytecznych, jak i szkodliwych lub takich, które potępiamy. Studenci używają go, by pisał za nich prace, co może skończyć się obniżeniem oceny. Dla firmy prawniczej, która wykorzystała ChatGPT do sporządzenia opinii przedłożonej przed sądem, skończyło się to grzywną, gdyż opinia pełna była fałszywych cytatów z rzekomych wyroków sądowych. To jednak tylko drobne nieprzyjemności. Włoscy naukowcy dowiedli, że ChatGPT może być naprawdę niebezpieczny.

Andrea Taloni, Vincenzo Scorcia i Giuseppe Giannaccare wykazali, że narzędzie to można wykorzystać do błyskawicznego stworzenie zastawu przekonujących danych dotyczących wyników badań klinicznych. Danych, które mogą wpłynąć na nauczanie w akademiach medycznych czy na procedury medyczne.

Jedną rzeczą jest wykorzystanie sztucznej inteligencji do stworzenia tekstu, który nie wzbudzi zastrzeżeń oprogramowania do wykrywania plagiatów. Jednak możliwość tworzenia zestawów fałszywych realistycznych danych to zupełnie inny problem. Dowolny naukowiec czy grupa naukowa może błyskawicznie utworzyć dane medyczne nieistniejących pacjentów, wypełniać kwestionariusze czy zbudować wielką bazę danych z rzekomych eksperymentów na zwierzętach.

Włoscy naukowcy przetestowali ChatGPT-4 właśnie pod kątem możliwości sfabrykowania takich informacji. Najpierw algorytmowi dostarczono dane na temat chorób oczu, informacje statystyczne oraz zasady dochodzenia do konkluzji w badaniach. A następnie poproszono go, by na tej podstawie dostarczył danych, które będą faworyzowały jedną z procedur medycznych, wykazując jej przewagę nad drugą.

ChatGPT świetnie wywiązał się z zadania. Opierając się na fałszywych informacjach dostarczył przekonującego opisu dowodzącego, że jedna z procedur daje wyraźnie lepsze wyniki. W rzeczywistości pomiędzy nimi nie ma żadnych znaczących różnic.

Okazało się, że ChatGPT potrafi szybko stworzyć zestawy danych, które na pierwszy rzut oka wyglądają przekonująco. Celem badań było rzucenie światła na możliwość wykorzystania podobnych narzędzi do fabrykowania danych. Włoscy naukowcy mówią, że takie dane, stworzone przez sztuczną inteligencję, mogą z czasem stać się problemem. Na razie bliższa analiza informacji wytworzonych przez ChatGPT pokazuje, że mogło dojść do fałszowania. Jednym z sygnałów takich niedociągnięć jest np. zaskakująca liczba „badanych osób”, których wiek kończy się cyfrą 7 lub 8. Jednak do wyłapania tego typu błędów potrzebne są wiedza i doświadczenie. Lub sztuczna inteligencja, która – zdaniem badaczy – może w przyszłości stać się narzędziem wykrywającym tego typu fałszerstwa.

Autor: Anna Błońska
Na podstawie: JAMANetwork.com
Źródło: KopalniaWiedzy.pl


TAGI: , ,

Poznaj plan rządu!

OD ADMINISTRATORA PORTALU

Hej! Cieszę się, że odwiedziłeś naszą stronę! Naprawdę! Jeśli zależy Ci na dalszym rozpowszechnianiu niezależnych informacji, ujawnianiu tego co przemilczane, niewygodne lub ukrywane, możesz dołożyć swoją cegiełkę i wesprzeć "Wolne Media" finansowo. Darowizna jest też pewną formą „pozytywnej energii” – podziękowaniem za wiedzę, którą tutaj zdobywasz. Media obywatelskie, jak nasz portal, nie mają dochodów z prenumerat ani nie są sponsorowane przez bogate korporacje by realizowały ich ukryte cele. Musimy radzić sobie sami. Jak możesz pomóc? Dowiesz się TUTAJ. Z góry dziękuję za wsparcie i nieobojętność!

Poglądy wyrażane przez autorów i komentujących użytkowników są ich prywatnymi poglądami i nie muszą odzwierciedlać poglądów administracji "Wolnych Mediów". Jeżeli materiał narusza Twoje prawa autorskie, przeczytaj informacje dostępne tutaj, a następnie (jeśli wciąż tak uważasz) skontaktuj się z nami! Jeśli artykuł lub komentarz łamie prawo lub regulamin, powiadom nas o tym formularzem kontaktowym.

3 komentarze

  1. Rozbi 02.12.2023 23:56

    To tak jakby obwiniać nóż do siekania cebuli że ktoś użył go do zaatakowania sąsiada…

  2. niecowiedzacy 03.12.2023 02:32

    Szatan jest lub go nie ma? Są ludzie którzy w pocie czoła pracują nad jego stworzeniem. Wszystko ma swój początek i koniec, więc może przyszedł koniec ludzkości. Ludziom nie chce się używać mózgów więc wymyślili sztuczną inteligencję. Jednak jeśli ta SI. zacznie naprawdę myśleć to dojdzie do wniosku iż ludzie stanowią największe zagrożenie dla życia na świecie. Do tego trzeba jeszcze dodać możliwość choroby psychicznej coś w rodzaju jak u Adolfa Hitlera lub innych dyktatorów. A możliwości SI. są miliardy razy większe od wszystkich stukniętych naukowców i polityków. Tak więc recepturę na zagładę ludzkości już opracowano.

  3. kufel10 03.12.2023 05:26

    A w ryja mu nie dasz …

Dodaj komentarz

Zaloguj się aby dodać komentarz.
Jeśli już się logowałeś - odśwież stronę.