Kopiuj i wklej z ChatuGPT w publikacjach naukowych z górnej półki
Pewne niezgrabne frazy charakterystyczne dla ChatuGPT pojawiają się w recenzowanych publikacjach w czasopismach naukowych — wynika z analizy prof. Artura Strzeleckiego z Uniwersytetu Ekonomicznego w Katowicach. Zdaniem badacza może to podkopywać zaufanie do procesu przygotowywania treści naukowych.
W odpowiedziach tworzonych przez ChatGPT pojawiają się pewne charakterystyczne, nieużywane raczej przez ludzi struktury, jak np. „Według mojej wiedzy na dzień ostatniej aktualizacji…”, „Mam nadzieję, że to pomoże!”, „Oczywiście! Tutaj jest/są…”, „Cieszę się, że mogę pomóc!”, „Mam nadzieję, że to wyjaśnia Twoje pytanie. Jeśli potrzebujesz więcej informacji, daj znać!”.
Dr hab. Artur Strzelecki, prof. Uniwersytetu Ekonomicznego w Katowicach postanowił sprawdzić, czy „nienaturalne” sformułowania tego typu zaczęły się częściej pojawiać w anglojęzycznych publikacjach naukowych. To zaś zdradza, że autorzy publikacji bezmyślnie przekopiowali do swojego artykułu naukowego fragment wypowiedzi ChatuGPT. A w dodatku nie zostało to zauważone przez współautorów, recenzentów, ani redaktorów czasopisma.
Naukowiec z UEK w swojej pracy przeanalizował tylko te artykuły, w których nie wspominano o programie ChatGPT i nie deklarowano korzystania z tego narzędzia w pisaniu pracy.
Autor wybrał kilkanaście typowych dla ChatuGPT zwrotów i wyszukiwał je w bazie publikacji naukowych Google Scholar. O ile przed pojawieniem się ChatuGPT niektóre zwroty występowały sporadycznie i najczęściej jako fragment dialogu w badaniach jakościowych, o tyle w kolejnych latach ich popularność poszybowała.
Wśród takich fraz, które w publikacjach zaczęły się pojawiać za sprawą bezrefleksyjnego użycia ChatuGPT, są zwroty takie jak: „Według mojej wiedzy na dzień ostatniej aktualizacji…” („as of my last knowledge update”), „Jako model językowy AI” („as an AI language model”) czy „I don’t have access to real-time…” („nie mam dostępu do aktualnych…”).
Okazuje się też, że ponad sto razy w publikacjach naukowych skopiowano treść interfejsu — pod każdą odpowiedzią ChatuGPT był dawniej przycisk „regenerate response”, czyli polecenie, by chat ponownie opracował swoją odpowiedź. Całkiem wielu nieuważnych naukowców skopiowało odpowiedź AI wraz z jej „stopką” i nie przeczytało do końca tekstu wysyłanego do wydawnictwa.
Kiedy brać pod uwagę tylko bardziej prestiżowe, recenzowane czasopisma naukowe z bazy Scopus (obecne w pierwszym i drugim kwartylu wskaźnika CiteScore), to frazy ChatuGPT nie były może nagminne, ale prof. Strzelecki odnalazł je w 89 artykułach. A to oznacza, że i w lepszych wydawnictwach takie nowego typu „uchybienia językowe” mogą przemknąć niezauważone. Analizy dostępne są w artykule „Learned Publishing”.
„ChatGPT jest tylko narzędziem. To autor bierze całą odpowiedzialność za to, co zawrze w swoim artykule naukowym” – skomentował w rozmowie z PAP prof. Strzelecki. Zdaniem naukowca fakt bezmyślnego wykorzystywania ChatuGPT w nauce podkopuje jej autorytet. „Jak można ufać niektórym czasopismom naukowym, skoro nawet tam pojawiają się niedbale przygotowane treści” – zwraca uwagę badacz.
Według niego zadaniem każdego użytkownika korzystającego z AI jest krytyczne przeanalizowanie całej wypowiedzi modelu. Dopiero wtedy można zastanowić się nad dalszym jej wykorzystaniem.
Prof. Strzelecki zwraca uwagę, że ChatGPT to bardzo pomocne narzędzie, z którego warto korzystać np. w ramach korekty językowej czy przy tłumaczeniu tekstu na obcy język. Przypomina jednak, że nie należy brać za dobrą monetę wszystkiego, co wytworzy AI. „Nie wszystko, co brzmi profesjonalnie – jest prawdziwe” – podkreśla naukowiec. „Skoro już korzystamy z ChatuGPT w swojej pracy, to róbmy to odpowiedzialnie”.
Autorstwo: Ludwika Tomala (PAP)
Źródło: NaukawPolsce.pl