ZASADY UŻYCIA SI (AI)

Wykorzystanie narzędzi sztucznej inteligencji w przygotowaniu manuskryptów
Wytyczne redakcyjne "Er(r)go. Teoria — Literatura — Kultura" (zgodne z COPE)

Wykorzystanie narzędzi sztucznej inteligencji (AI) — takich jak ChatGPT oraz inne duże modele językowe — w procesie przygotowywania publikacji naukowych dynamicznie rośnie we wszystkich dziedzinach badań. Czasopismo "Er(r)go. Teoria — Literatura — Kultura" uznaje ten fakt za element współczesnego ekosystemu akademickiego i odnosi się do niego zgodnie z zasadami etyki publikacyjnej określonymi przez Committee on Publication Ethics (COPE).

COPE, działając wspólnie z innymi międzynarodowymi organizacjami — w tym World Association of Medical Editors (WAME) oraz JAMA Network — jednoznacznie stwierdza, że narzędzia sztucznej inteligencji nie mogą być wskazywane jako autorzy publikacji naukowych, ponieważ nie są zdolne do spełnienia podstawowych kryteriów autorstwa, takich jak odpowiedzialność, rozliczalność oraz sprawczość intelektualna.

Ujawnienie, odpowiedzialność i ocena redakcyjna
Ujawnienie wykorzystania narzędzi AI w zakresie redakcji językowej, stylistycznej lub strukturalnej tekstu nie stanowi podstawy do odrzucenia manuskryptu i nie powinno być traktowane jako przejaw nierzetelności akademickiej. Zgodnie z wytycznymi COPE, zastrzeżenia natury etycznej mogą pojawić się wyłącznie wówczas, gdy istnieją uzasadnione podstawy, by sądzić, że doszło do nieprawidłowego przedstawienia autorstwa, oryginalności, wkładu intelektualnego lub odpowiedzialności naukowej.

Polityka redakcyjna czasopisma odzwierciedla kluczowe zasady COPE:

a) narzędzia sztucznej inteligencji nie mogą być wskazywane ani uznawane za autorów lub współautorów publikacji;
b) wymagane jest zachowanie transparentności w zakresie korzystania z narzędzi AI, w tym podanie krótkiego opisu sposobu ich użycia (np. korekta językowa, redakcja stylistyczna, reorganizacja struktury tekstu);
c) pełna odpowiedzialność za treść, poprawność merytoryczną, oryginalność oraz integralność manuskryptu spoczywa wyłącznie na autorze lub autorach będących osobami fizycznymi.

W związku z powyższym, zasadniczym problemem etycznym nie jest samo korzystanie z narzędzi wspomaganych przez AI, lecz potencjalne zafałszowanie autorstwa lub przeniesienie odpowiedzialności intelektualnej na podmioty, które nie mogą jej ponosić.

Praktyka redakcyjna i narzędzia detekcji AI
Zgodnie z zaleceniami COPE, "Er(r)go. Teoria — Literatura — Kultura" nie opiera decyzji redakcyjnych ani recenzyjnych na wynikach oprogramowania służącego do wykrywania tekstów generowanych przez AI. Narzędzia tego rodzaju nie są obecnie uznawane za wystarczająco wiarygodne, aby umożliwiać jednoznaczne rozróżnienie pomiędzy tekstem naukowym poddanym redakcji z użyciem AI a tekstem w pełni oryginalnym. Ocena redakcyjna opiera się zatem na zasadach transparentności, proporcjonalności oraz odpowiedzialności, a nie na zautomatyzowanej detekcji.

Autorzy są proszeni o dołączenie krótkiego oświadczenia informującego, czy oraz w jaki sposób narzędzia AI zostały wykorzystane w procesie przygotowania zgłoszonego manuskryptu. Oświadczenie to służy zapewnieniu przejrzystości etycznej i nie wpływa negatywnie na przebieg ani wynik procesu redakcyjnego lub recenzyjnego.

Odniesienie do wytycznych COPE
Niniejsza polityka opiera się na oficjalnym stanowisku COPE:
Committee on Publication Ethics (COPE Council).
COPE Council. COPE position – Authorship and AI – English.
https://doi.org/10.24318/cCVRZBms
© 2024 Committee on Publication Ethics (CC BY-NC-ND 4.0)
https://publicationethics.org

 

COVER

Nr 51 (2025)
Opublikowane: 2025-12-30


ISSN: 1508-6305
eISSN: 2544-3186
Logo DOI 10.31261/errgo

Wydawca
University of Silesia Press | Wydawnictwo Uniwersytetu Śląskiego i Wydawnictwo Naukowe "Śląsk"

Licencja CC

Licencja CC BY-SA

Ta strona używa pliki cookie dla prawidłowego działania, aby korzystać w pełni z portalu należy zaakceptować pliki cookie.