wikipedia-bans-ai-articles-new-editing-policy
Wikipedia zakazuje tekstów generowanych przez AI w artykułach zgodnie z nową polityką edycyjną
Internetowa encyklopedia zabrania treści napisanych przez AI, ale zezwala na ograniczoną korektę tekstów wspomaganą przez AI pod ścisłymi zasadami.
2026-03-26 Źródło:decrypt.co

W skrócie

  • Wikipedia zabrania obecnie edytorom używania dużych modeli językowych do generowania lub przepisywania treści artykułów.
  • Zasada nadal dopuszcza ograniczone copyediting wspomagane przez AI, jeśli edytorzy weryfikują zmiany i nie wprowadzono nowych treści.
  • Zasada odzwierciedla rosnące obawy dotyczące "halucynacji", sfabrykowanych źródeł i dokładności tekstu generowanego przez AI.

Redaktorzy Wikipedii zdecydowali się ograniczyć sposób wykorzystania sztucznej inteligencji na platformie, wprowadzając niedawną aktualizację polityki, która zakazuje używania dużych modeli językowych do pisania lub przepisywania artykułów.

Nowa wytyczna odzwierciedla rosnące obawy w społeczności Wikipedii, że tekst generowany przez AI może kolidować ze standardami platformy, zwłaszcza w zakresie weryfikowalności i wiarygodnego źródła informacji.

„Tekst generowany przez duże modele językowe często narusza kilka kluczowych zasad treści Wikipedii” – czytamy w aktualizacji polityki. „Z tego powodu używanie LLM do generowania lub przepisywania treści artykułów jest zabronione, z wyjątkiem podanych poniżej.”

Polityka nadal zezwala na ograniczone użycie narzędzi AI, w tym sugerowanie podstawowych poprawek redakcyjnych do własnego tekstu edytora, pod warunkiem, że system nie wprowadza nowych informacji. Jednak edytorzy są proszeni o dokładne przejrzenie tych sugestii.

Chociaż nowa polityka nie wspomina o karach za używanie treści generowanych przez AI, zgodnie z wytycznymi Wikipedii dotyczącymi ujawniania informacji, powtarzające się nadużycia stanowią „wzór destrukcyjnego edytowania” i mogą prowadzić do blokady lub bana. Wikipedia daje edytorom możliwość przywrócenia konta po procesie odwoławczym.

„Blokady mogą zostać cofnięte za zgodą administratora blokującego, poprzez unieważnienie przez innych administratorów w przypadku, gdy blokada była wyraźnie nieuzasadniona, lub (w bardzo rzadkich przypadkach) na podstawie odwołania do Komisji Arbitrażowej” – podała Wikipedia.

"Fundacja Wikimedia nie ustala zasad redakcyjnych i wytycznych na Wikipedii; robią to edytorzy-wolontariusze," powiedział rzecznik Fundacji Wikimedia w rozmowie z Decrypt. "Siłą Wikipedii zawsze był i będzie model skoncentrowany na człowieku i napędzany przez wolontariuszy."

Według Emily M. Bender, profesor lingwistyki na Uniwersytecie Waszyngtońskim, niektóre zastosowania modeli językowych w narzędziach do edycji mogą być uzasadnione, ale wytyczenie wyraźnej granicy między edycją a generowaniem tekstu może być trudne.

„Jedną z rzeczy, które można zrobić z modelem językowym, jest zbudowanie na przykład bardzo dobrego sprawdzania pisowni” – powiedziała Bender w rozmowie z Decrypt. „Uważam, że rozsądne jest stwierdzenie, iż sprawdzanie pisowni w edycjach jest w porządku. A jeśli przechodzimy na wyższy poziom, czyli sprawdzanie gramatyki, to również może być w porządku.”

Bender stwierdziła, że wyzwanie pojawia się, gdy systemy wykraczają poza poprawianie gramatyki i zaczynają zmieniać lub generować treści, zauważając, że dużym modelom językowym brakuje odpowiedzialności, jaką wnoszą ludzie do wspólnych projektów wiedzy.

„Używanie dużych modeli językowych do tworzenia syntetycznego tekstu charakteryzuje się tym, że nie ma żadnej odpowiedzialności, żadnego związku z tym, w co ktoś wierzy lub za czym stoi” – powiedziała. „Kiedy mówimy, mówimy na podstawie tego, w co wierzymy i za co odpowiadamy, a nie na podstawie jakiegoś obiektywnego pojęcia prawdy. A tego nie ma w przypadku dużych modeli językowych.”

Bender stwierdziła, że powszechne użycie edycji generowanych przez AI może również wpłynąć na reputację witryny.

„Jeśli ludzie zamiast tego idą na skróty i tworzą coś, co wygląda jak edycja lub artykuł Wikipedii, i umieszczają to tam, to obniża to ogólną wartość i reputację witryny” – powiedziała.

Joseph Reagle, profesor nadzwyczajny komunikacji na Northeastern University, który bada kulturę i zarządzanie Wikipedii, stwierdził, że reakcja społeczności odzwierciedla długotrwałe obawy dotyczące dokładności i źródła informacji.

„Wikipedia jest ostrożna wobec prozy generowanej przez AI” – powiedział Reagle w rozmowie z Decrypt. „Poważnie traktują dokładne przedstawienie tego, co wiarygodne źródła mówią na dany temat. AI miało poważne ograniczenia w tej kwestii, takie jak 'halucynowane' twierdzenia i sfabrykowane źródła.”

Reagle powiedział, że podstawowe zasady Wikipedii również kształtują sposób, w jaki edytorzy postrzegają narzędzia AI, zauważając, że wiele dużych modeli językowych zostało przeszkolonych na treściach Wikipedii. W październiku Fundacja Wikimedia podała, że liczba wizyt ludzi na Wikipedii spadła o około 8% rok do roku, ponieważ wyszukiwarki i chatboty coraz częściej dostarczają odpowiedzi bezpośrednio na swoich platformach, zamiast kierować użytkowników na stronę.

W styczniu Fundacja Wikimedia ogłosiła umowy z firmami zajmującymi się AI, w tym Microsoftem, Google, Amazonem i Metą, umożliwiające im korzystanie z materiałów Wikipedii za pośrednictwem produktu Enterprise, usługi komercyjnej przeznaczonej do szerokiego ponownego wykorzystania jej treści.

„Chociaż korzystanie z treści Wikipedii jest dozwolone na mocy licencji Wikipedii, nadal panuje pewna niechęć wśród wikipedystów do usług, które wykorzystują treści społeczności, a następnie stawiają te społeczności przed niechcianymi żądaniami radzenia sobie z konsekwentnym zalewem 'AI-generowanego bezwartościowego tekstu'” – powiedział Reagle.

Pomimo zakazu używania LLM, Wikipedia zezwala na używanie narzędzi AI do tłumaczenia artykułów z innych edycji językowych na angielski, pod warunkiem, że edytorzy zweryfikują oryginalny tekst. Polityka ostrzega również edytorów, aby nie polegali wyłącznie na stylu pisania w celu identyfikacji treści generowanych przez AI, lecz skupili się na tym, czy materiał jest zgodny z podstawowymi zasadami Wikipedii i historią edycji autora.

„Niektórzy edytorzy mogą mieć podobny styl pisania do LLM” – mówi aktualizacja. „Potrzeba więcej dowodów niż tylko oznaki stylistyczne lub językowe, aby uzasadnić sankcje, i najlepiej jest wziąć pod uwagę zgodność tekstu z podstawowymi zasadami treści oraz ostatnie edycje danego edytora.”

Uwaga redaktora: Ten artykuł został zaktualizowany po publikacji, aby uwzględnić komentarz Fundacji Wikipedia.