Künstliche Intelligenz & die Wikipedia

Der Umgang mit Künstlicher Intelligenz wirft in unserer Gesellschaft viele Fragen auf. Für uns besonders relevant: Wird die Wikipedia durch KI ersetzt werden?

Unsere Vorständin Nicole High-Steskal gibt uns Einsicht in ihre Weise, mit Künstlicher Intelligenz umzugehen und wie diese Herangehensweise auf Wikimedia-Projekte angewandt werden kann.

Als ich 2024 für den WMAT-Vorstand kandidierte, habe ich versprochen, mich als Vorstandsmitglied mit dem Thema Künstliche Intelligenz zu beschäftigen. Genau daran möchte ich in diesem Beitrag anknüpfen und einige erste Überlegungen vorstellen. Sie verstehen sich als Entwurf, um das breite und komplexe Themenfeld „KI und Wikipedia“ zu strukturieren und Ansatzpunkte für eine weitere Diskussion zu schaffen.

Bild: , Michael.C.Wright | CC0 1.0

KI werden wir in absehbarer Zeit nicht mehr los.

Die Auseinandersetzung mit KI ist in der Wikipedia-Community keineswegs neu. Das WikiProjekt KI und Wikipedia hat sich in den letzten Jahren als Anlaufstelle zum Thema innerhalb der deutschsprachigen Wikipedia entwickelt und dokumentiert vielfältige Aspekte. Hier erhält man einen Überblick zum Thema KI allgemein, kann sich zu aktuellen Richtlinien einlesen, sich zu Problemen und aktuellen Problemfällen informieren, sowie einen groben Überblick zu existierenden Tools verschaffen. Doch fehlt dem Thema Struktur, wodurch sie überfordernd sein kann.

Da ich in meiner tagtäglichen Arbeit viel mit dem Thema KI und Lernen zu tun habe, habe ich dort mehrere Konzepte entdeckt, die das Thema strukturieren. Insbesondere hat mich die Arbeit von Joscha Falk angeregt, der zum Umgang mit KI und Lernen 5 Dimensionen entwickelt hat. Er unterscheidet dabei zwischen mit/über/durch/trotz/ohne KI zu lernen. Sein Konzept überzeugt mich, weil es sowohl unterschiedliche Haltungen gegenüber KI berücksichtigt als auch eine klare gedankliche Ordnung bietet. Auf Basis seiner Arbeit habe ich überlegt, wie sich Falks Dimensionen für die Wikipedia (und ihre Schwesterprojekte) adaptieren ließen.

Aus Studien und auch Beobachtungen im privaten Umfeld ist nicht zu übersehen, dass sich die Suche nach und der Umgang mit Informationen seit dem Aufkommen von ChatGPT sehr stark verändert hat. Mittlerweile greifen viele Menschen bei ihren Recherchen zu ChatGPT und anderen generativen KI-Tools, wo sie in der Vergangenheit Wikipedia befragt haben. Ich sehe daher einen Bedarf an Diskussions- und Reflexionsräumen, um besser zu definieren, was die Wikipedia ausmacht.

Für mich ist natürlich ganz klar, dass wir die Wikipedia brauchen und das Projekt Wikipedia als umfassende Enzyklopädie nur mit Menschen gestaltet werden kann. Aber für viele Menschen ist das nicht so klar. Wie sollen wir auf Fragen reagieren, ob die Welt die Wikipedia noch braucht, wenn ChatGPT schon alles beantworten kann? Was macht die Wikipedia aus?

KI ist mittlerweile allgegenwärtig und es gibt einige Möglichkeiten, wie die Arbeit in der Wikipedia und den Schwesterprojekten KI-gestützt effizienter gestaltet werden kann. Dafür benötigen wir eine Sammlung an Fallbeispielen und Tools, sowie Austauschmöglichkeiten: wie kann KI sinnvoll eingesetzt werden? Was sind gute Einsatzmöglichkeiten und Workflows? KI wird häufig mit der Generierung von Texten in der Wikipedia in Verbindung gebracht, doch sollte KI eher als eines von vielen Werkzeugen verstanden werden, das im Arbeitsprozess genutzt werden kann.

In meinem persönlichen Arbeitsalltag verwende ich KI häufig in der Funktion eines Assistenten, der mich an Themen erinnert, Themen diskutiert, so manches übersetzt oder auch unterstützt beim Schreiben von SPARQL-Abfragen. Zuletzt habe ich beispielsweise auch Daten in OpenRefine überarbeitet und die LLM-Extension ausprobiert. Damit kann man aus Fließtext Daten einfacher und schneller extrahieren, um sie dann in späterer Folge in WikiData oder Commons einspielen zu können (z.B. aus einem Lexikon die Jahreszahlen und Geburts-/Sterbeorte von Personen auslesen). Wichtig ist dabei, dass man sich mit den Tools auskennt, die Ausgabe der KI einschätzen kann und die Ergebnisse genau prüft. Weitere Tools sind hier gelistet.

Wir benötigen alle immer mehr Wissen über KI und die Wikipedia ist der perfekte Ort, um Wissen über KI zu teilen und zugänglich für alle zu machen. Während viele KI-Lernfirmen aus dem Boden sprießen, könnten wir Inhalte über KI noch besser auf der Wikipedia sammeln und für alle Menschen zugänglich machen.

Dies passiert bereits in der englischsprachigen Wikipedia durch das WikiProject: Artificial Intelligence. Hier wäre es wichtig, ökologische, ethische und rechtliche Faktoren neben den technischen für Leser*innen zusammenzustellen. Viele Informationen sind natürlich bereits gut aufbereitet in der Wikipedia, aber als eigene, digitale Lernstrecke könnte man vielen Leser*innen unter die Arme greifen. Zusätzlich könnte man damit Wikipedianer*innen helfen, KI korrekt zu nutzen.

Hier unterscheide ich mich von Falks Modell. Viele KI-Tools sammeln über ihre Nutzer*innen große Mengen an Daten. Gleichzeitig sind LLMs, die zwar große Mengen an Daten aus der Wikipedia in ihrem Training genutzt haben, nur zum Teil offen und transparent. Als Wikipedianerin finde ich es wichtig, Tools zu nutzen, die die wikipedianischen Werte teilen.

Daher ist es mir wichtig, dass wir unsere Community bei der Wahl von KI-Tools unterstützen und uns für eine freie und offene Wissensgesellschaft auch im Bereich der KI einsetzen. Die zuvor erwähnte LLM-Extension kann beispielsweise mit lokal installierten LLMs genutzt werden, wodurch die eigenen Daten nicht auf externe Server landen.

Nicht jede Tätigkeit in der Wikipedia benötigt KI und das ist gut so! Der Mensch muss der kritische Geist bleiben, der Themenkomplexe prüft, dazu schreibt und Inhalte verbessert. Die KI-Strategie der Wikimedia Foundation hat als klare Leitlinie “Humans first” definiert und gibt klar vor, dass KI nur als unterstützende Technologie eingesetzt werden soll. Der Entscheidungsträger ist und bleibt der Mensch.

Unklar bleibt, wann und wo KI erlaubt wird und ob das KI-gestützte Schreiben von Artikeln geduldet wird. Ein großes Problem stellen aktuell KI-generierte Artikel dar, die nicht den wikipedianischen Standards entsprechen. Diese enthalten falsche Informationen, fehlende oder inkorrekte Belege und teilweise auch Füllwörter, die direkt aus den KI-Chats übernommen wurden. Dem Problem widmet sich das WikiProject AI Cleanup und im deutschsprachigen das schon erwähnte WikiProjekt KI und Wikipedia.

Generell ist eine ablehnende Haltung gegenüber dem Schreiben von Wikipedia-Artikeln mit generativer KI wahrzunehmen, wie etwa eine aktuelle Umfrage dazu auch zeigt.

Ist KI das Ende der Wikipedia?

Denke ich, dass die Wikipedia durch KI ersetzt wird? Nein, nicht wirklich. Sie wird uns zwingen manche Sachen neu zu denken, aber die Wikipedia wird so lange überleben, wie es eine Community gibt, die sie hegt und pflegt und gemeinsam diskutiert. Die Community und die gemeinsame Arbeit von vielen Freiwilligen hat die Wikipedia groß gemacht und durch die gewissenhafte Aufbereitung und das Belegen von Inhalten ist sie zu einer verlässlichen Quelle geworden. So lange dies weiter besteht, wird auch die Wikipedia existieren.

Weiterführende Informationen

Falls du dich näher mit den Grundlagen von Künstlicher Intelligenz (KI) und Large Language Models (LLMs) beschäftigen möchten, findest du hier weiterführende Informationen.
Insbesondere zu LLMs kann ich dieses kurze Erklärvideo empfehlen:
Was sind eigentlich Large Language Models?