Bots – kurz für das englische robots ("Roboter")- sind Computerprogramme, die weitgehend selbstständig, sich stets wiederholende Aufgaben abarbeiten. So wurden beispielsweise die ersten funktionsmächtigeren Bots in Suchmaschinen eingesetzt, um das Internet ohne menschliche Hilfe zu durchkämmen. Sie folgten Hyperlinks mit dem Ziel, das Web zu erfassen und zu katalogisieren.
Heute begleitet man das Thema Bots mit gemischten Gefühlen, denn sie dienen auch Hackern und Spammern dazu, nichtsahnende fremde Computer mit Viren zu verseuchen, die dort wiederum ganz andere Bots installieren. Unbemerkt von den Besitzern verrichten sie ihr Werk im Hintergrund; verschicken Spam-Mails, fangen persönliche Daten ab, überlasten Web-Server oder infizieren andere Computer. In der Wikipedia jedoch – dem selbst erklärten "freien Online-Lexikon", an dem jeder mitwirken könne1– hat sich eine neue Klasse von Bots herausgebildet, die den Vorteil der Automation für weit sinnvollere Zwecke nutzt. Die Bots in der Wikipedia helfen in nahezu allen Bereichen der Enzyklopädie: Sie erstellen neue Artikel und bearbeiten vorhandene, setzen Standards und Regeln, spähen nach Spam und Vandalismus und vieles mehr. Da Bots programmiert sind, um den Richtlinien und Grundsätzen für das Verfassen von Artikeln Geltung zu verschaffen, beeinflussen sie das Lexikonprojekt maßgeblich. Hier wirken schließlich Hunderttausende Freiwillige aus aller Welt durch Millionen von Artikeln und Bearbeitungen mit, sodass Bots ein gewisses Maß an Einheitlichkeit in Form und Inhalt gewährleisten – also beispielsweise dann, wenn man sich einig ist, Quellenangaben alphabetisch anzuordnen. Bots haben ferner Lenkungsfunktionen – sie greifen z.B. bei Edit-Wars (wörtlich: Bearbeitungskriegen) und anderen redaktionellen Konflikten kontrollierend ein, werden aber auch eingesetzt, um einseitige, umstrittene Änderungen pauschal in der gesamten Enzyklopädie vorzunehmen, wie die Umwandlung der amerikanischen in die britische Schreibweise. Angesichts des verbreiteten Einsatzes von Bots für so zahlreiche unterschiedliche Aufgaben in der Wikipedia bildeten und bilden sie und ihre Entwickler eine zentrale Größe des Projekts und der Wikipedia-Gemeinschaft.
Die ersten Bots: Automatisierung von Routineaufgaben
In der Wikipedia nutzt man Bots für vielfältige lexikonspezifische und organisatorische Aufgaben. Seit den Anfängen haben Komplexität und Umfang dieser Spezialprogramme zugenommen. Die ersten Bots wurden lange vor Gründung der Wikimedia Foundation entwickelt, also bereits als die Enzyklopädie noch ein relativ kleines und unbekanntes Projekt mit weniger als tausend ehrenamtlichen Mitarbeitern war, die an rund 25 bis fünfzig Artikeln täglich schrieben. Schon damals hatten die Wikipedianer ein frei zugängliches Online-Lexikon von Weltformat im Sinn, das es selbst mit der Encyclopedia Britannica aufnehmen können sollte. Also gab es viel zu tun. Folglich sollten die ersten Bots Routineaufgaben automatisieren, die zwar auch vom Menschen erledigt werden können, sich wegen der Monotonie aber eher für Computerprogramme eignen.
Einer der prominentesten digitalen Helfer, der immer noch im Einsatz ist, war RamBot, programmiert im Herbst 2002 von dem Wiki-Autoren und späteren Administratoren Ram-Man. Er hatte erkannt, dass die Zensusdaten der Behörden für Artikel zu fast allen Städten und Gemeinden in den Vereinigten Staaten in sehr benutzerfreundlichem Datenformat öffentlich zugänglich waren. Es gab zwar bereits Artikel über zahlreiche Großstädte (und die Heimatstädte der Autoren), doch fehlten noch viele andere. Mit den verfügbaren strukturierten Zensusdaten lieferte RamBot die Einzelheiten für das Grundgerüst von Artikeln über sämtliche behördlich erfassten US-Kommunen. Ein kurzer Blick auf den Abschnitt über die Einwohnerentwicklung in den englischsprachigen Städte-Artikeln lässt das Vermächtnis dieses Bots noch fast ein Jahrzehnt später erkennen – die meisten werden nach wie vor im von RamBot verwendeten Format erstellt (der automatisch den Platzhalter "X" mit den entsprechenden Informationen versieht):
Nach dem Zensus von 2000 hat die Stadt X Einwohner, X Haushalte und X Familien. Die Bevölkerungsdichte liegt bei X/km² (X/mi²). Bei einer mittleren Dichte von X/km² (X/mi²) gibt es X Wohnungen. Ethnische Zusammensetzung: X% Weiße, X% Afroamerikaner, X% Indigene, X% Asiaten, X% Auswanderer von Pazifik-Inseln, X% anderer ethnischer Herkunft und X% gemischter ethnischer Herkunft. X% der Bevölkerung sind Hispanoamerikaner unterschiedlicher Herkunft.
Innerhalb von neun Tagen hatte Rambot mehr als 30.000 Artikel angelegt oder geändert – das waren mehr Bearbeitungen als die aller anderen Mitarbeiter zusammengenommen. Andere Bots dieser ersten Generation arbeiteten ähnlich repetitiv, etwa beim Import von Texten aus der gemeinfreien 1911 Encyclopedia Britannica http://www.1911encyclopedia.org, aus dem Glossar Telekommunikation des US Federal Standard 1037C, aus dem Easton’s Bible Dictionary von 1897 und aus anderen Nachschlagewerken, zu Themen, für die es noch keinen Artikel in der Wikipedia gab. Zwar wurden die Artikel seitdem gründlich überarbeitet, dennoch bildeten sie die Grundlage für viele frühe Enzyklopädie-Einträge (umgeschrieben wurden vor allem die höchst strittigen, vom Presbyterianertum der damaligen Zeit geprägten Artikel aus dem Easton's Bible Dictionary). Schließlich gab es noch Korrektur-Bots, die Fehler in der Formatierung, der Kategorisierung oder in der Schreibung berichtigten. Hierher gehören Fälle, bei denen z.B. eine bestimmte britische oder amerikanische Schreibweise nicht konsensfähig war oder die Angabe "vor Christus" bzw. "vor christlicher Zeitrechnung" strittig blieb. Diese erste Bot-Generation automatisierte also die stetigen eintönigen Aufgaben, mit denen Wikipedianer tagtäglich zu tun hatten; nahezu alle Bots fügten Inhalt hinzu oder korrigierten ohne böse Absicht begangene Fehler.
Bots werden in der Mediawikisoftware als Nutzer behandelt: ihre Bearbeitungen sind dementsprechend in der Artikel-Versionsgeschichte erkennbar. Obwohl der Standard (und später die Regel) lautete, Bearbeitungen durch Bots nur unter einem neuen Nutzerkonto mit klar erkennbarem "Bot" im Benutzernamen ausführen zu lassen, arbeiteten manche Bot-Entwickler unter ihrem Haupt-Benutzerkonto. Denn die Zahl der Bot-Bearbeitungen ließ die Listen der jüngsten Bearbeitungen anschwellen, was zahlreiche der ersten Wikipedianer frustrierte – und dazu führte, dass sie Bots aus diesen Listen wieder herausfilterten.
Die gelegentlichen Kontroversen über Bot-Anwender, die einseitig und ohne vorherige Konsensbildung Aufgaben ausführten, blieben nicht ohne Folgen: Für die Genehmigung von Bots wurden Regeln aufgestellt; 2006 bildete sich aus Administratoren und erfahrenen Bot-Entwicklern die "Bot Approval Group", ein Zusammenschluss um solche Auseinandersetzungen zu vermeiden.
Wie lässt sich das exponentielle Wachstum bewältigen?
Durch die rasant wachsende Beliebtheit hatte sich Wikipedia als Gemeinschaftsprojekt für Wissensangebote bald grundlegend verändert und Bots wurden für die Power-User schnell zum anerkannten Arbeitstool. Die 2003 gegründete Wikimedia Foundation hatte zwar den Betrieb der Server und der technischen Infrastruktur übernommen, aber Entwicklung, Einsatz und Genehmigung von Bots blieben fast ausnahmslos in der Hand der Projektgemeinschaft. Dies hat sich bis heute kaum geändert, da es nicht zu den Aufgaben der Wikimedia Foundation gehört, die Inhalte der Artikel zu regulieren, außer in besonders kritischen Fällen. Zur Unterstützung der Bot-Entwicklung brachten einige der produktivsten Bot-Entwickler 2005 ein Python-basiertes Bot-Framework heraus. Ebenfalls 2005 spendete die Firma Sun der Wikimedia Deutschland e.V. einen Server. Dieser "Toolserver" sollte es den Entwicklern ermöglichen, in einem besonderen Bereich Bots, Scripte und andere externe Tools in allen Sprachfassungen der Wikipedia zu nutzen. Mit den neuen Ressourcen bildete sich eine wachsende Gruppe von Bot-Entwicklern heraus, die auch Anfragen für sinnvolle Bots von anderen Wikipedianern annahmen, denen die technischen Kenntnisse fehlten. In der Folge wurden die Bots und ihre Anwendungsbereiche zunehmend spezieller – das zeigt die Arbeit des Mehrzweck-Bots "Tawkerbot" (entwickelt von Tawker, einem der damals produktivsten Wikipedia-Bot-Entwickler): Tawkerbot bereinigt Templates (Artikelvorlagen), markiert inaktive Diskussionsseiten, aktualisiert durch Verschieben von Seiten bedingte Weiterleitungen, vereinigt Kategorien und erfüllt für eine Reihe von Artikeln einer bestimmten Kategorie "Suchen-und-Ersetzen"-Aufgaben.
Neben diesen Lösungen für routinemäßige Arbeiten entwickelte der Bot-Entwickler Tawker noch ein Instrument für eine ganz andere Art der "Bereinigung": Es sollte Vandalismus (Artikelverunstaltungen) rückgängig machen. So hatte eine Reihe von Nutzern in der ganzen Enzyklopädie unsinnige Verweise auf "Squidward" eingefügt, die Figur der US-amerikanischen Zeichentrickserie "SpongeBob Schwammkopf"2. Bald darauf schlossen sich Tawker weitere Administratoren und Bot-Entwickler an. Sie bauten die beschriebene Funktion zu einem proaktiven System aus, das Bearbeitungen von Wikipedia-Inhalten nahezu in Echtzeit kontrolliert und schädliche Bearbeitungen so rasch wie möglich rückgängig macht. Angesichts seiner Bedeutung und der zu bewältigenden Arbeit wurde der Bot "geklont" und auf fünf unterschiedlichen Systemen (jedes mit einem anderen Operator unter anderem Nutzerkonto) in einem Verbund installiert. Die Bots revidierten 2006 monatlich rund 40.000 Bearbeitungen (etwa 1% aller Bearbeitungen im gesamten Wikipedia-Projekt). Im Oktober desselben Jahres wurde der Teil des Bots, der für die Vandalismusbekämpfung eingesetzt wird, auf dem neuen Toolserver installiert – er allein macht nun schädliche Bearbeitungen unter dem Nutzernamen "AntiVandalBot" rückgängig.
Etwa zur selben Zeit wurde eine weitere Klasse von Bots entwickelt, die ausdrücklich normative Aufgaben hatte. Dies war grundlegend neu und anders als die früher typischen Bot-Funktionen wie die massenhafte Bereinigung von Inhalten. OrphanBot beispielsweise diente dazu, Bilder zu ermitteln (und später zu entfernen), die ohne Urheberrechtserklärung hochgeladen und als problematisch für die Wikipedia-Politik der "freien Lizenz" galten. Bis September 2006 hatte OrphanBot mehr als 70.000 Nachrichten an Wikipedia-Autoren verschickt, die Bilder ohne Urheberrechtserklärung hochgeladen hatten, und rund 50.000 Bilder aus Wikipedia-Artikeln gelöscht. Ende 2006 dann trat HagermanBot auf den Plan (später in SineBot umbenannt). Es handelt sich dabei um den ersten Bot, der eine reine Verhaltensnorm -also keinen enzyklopädischen Standard - durchsetzen sollte. HagermanBot bewacht die Diskussionsseiten: Bemerkt ein Autor hier etwas zu einem Artikel, soll er eigentlich bei jedem Bearbeitungskommentar Signatur und Zeitstempel manuell hinzuzufügen. Wenn er dies "vergisst", trägt nun Hagermanbot beides automatisch nach. Zudem versendet er Nachrichten, um an die entsprechenden Praktiken und Vorschriften zu erinnern. Der Anfang 2007 entwickelte COIBot ermittelt und meldet Interessenskonflikte, die durch Ähnlichkeiten zwischen dem Benutzernamen eines Bearbeiters und dem von ihm bearbeiteten Artikel auffallen können. Zum Beispiel: Ein Benutzer mit dem Namen "BigMegaCorpPR" bearbeitet den Artikel "BigMegaCorp" oder fügt diesen Text irgendwo ein – das meldet COIBot sofort. Um eine andere Regel kümmert sich 3RRBot - der Ende 2008 entwickelte Bot sucht nach Verstößen gegen die "3-Revert-Regel", die in der englischsprachigen Wikipedia besagt, dass ein Benutzer bei inhaltlichen Konflikten nicht mehr als dreimal innerhalb von 24 Stunden eine Änderung rückgängig machen darf. Solche Verstöße werden mit einer zeitlichen Benutzersperre geahndet.
Halbautomatisierte Bots und Tools
Ebenfalls 2006 und 2007 erschienen spezielle Tools, die, anders als Bots, ein gewisses Mindestmaß an manuellen Eingriffen erforderten. Sie übernehmen Routine-Aufgaben, die mithilfe eines Algorithmus funktionieren, über die aus verschiedenen Gründen aber nur ein Mensch entscheiden kann. So ließ die Bot Approval Group beispielsweise nach einer Reihe von Kontroversen um die automatische Rechtschreibkorrektur (auch britischer bzw. amerikanischer Schreibweisen) keine Bots mehr zu, die dies völlig eigenständig erledigten. Ein anderes Beispiel ist das das Javascript-Tool Lupin, das bei Bearbeitungen mit möglichen Orthografiefehlern eine Reihe von automatisch generierten Vorschlägen präsentiert. Mit wenigen Klicks und sekundenschnell kann man dann die betreffende Bearbeitung überprüfen und den Fehler korrigieren. Vorausgesetzt natürlich man kennt den Kontext und kann gewährleisten, dass die Fehlermeldung nicht durch Fachterminologie, veraltete Zitate o.ä. bedingt ist. Dieses Modell, dem menschlichen Benutzer Vorschläge für Bearbeitungen direkt zu präsentieren, übernahmen noch zahlreiche andere Tools, die in der extremen Wachstumsphase der Wikipedia entwickelt wurden.
So steht das Programm "Huggle" seit 2008 für zwei verschiedene, aber miteinander verbundene Veränderungen im Zusammenwirken von Mensch und Bot. Zunächst verlagerte Huggle das Bearbeiten vom Web-Browser auf eine völlig eigenständige Offline-Anwendung. In direkter Verbindung mit dem Wikipedia-Datenbestand und verschiedenen Bots bietet Huggle dem Benutzer eine Liste mit Bearbeitungen, die von einigen Anti-Spam- und Anti-Vandalismus-Programmen als "verdächtig" erkannt wurden. Es wird eine "Vorher-" und eine "Nachher-Version" des Artikels präsentiert, die Ergänzungen und Löschungen erkennen lassen. Binnen Sekunden nach einer Bearbeitung kann der Huggle-Anwender auf einen Knopf klicken und nicht nur die betreffende Bearbeitung rückgängig machen, sondern auch eine vorformulierte Warnung an den Wikipedia-Sünder schicken oder ihn sogar einem Administrator melden, um ihn sperren zu lassen. Inzwischen ist Huggle eines der am meisten genutzten Werkzeuge zur Prüfung und zum Revidieren von Bearbeitungen.
Zahlreiche andere halbautomatische Bots und Tools arbeiten nach demselben Prinzip. Sie zeigen potenziell problematische Bearbeitungen zur Prüfung an, damit der Bearbeiter sie nötigenfalls mit einem Mausklick korrigieren kann. Ein weiteres Modell konzentriert sich auf eine andere Kategorie von Aufgaben. Anders als die eigenständigen Desktop-Programme, die die Offline-Interaktion mit Wikipedia revolutionierten, erweitern Programme wie "Friendly" und "Twinkle" den Web-Browser um Funktionen, die Bearbeiter bei Routineaufgaben unterstützen. Friendly (später in Twinkle integriert) fügt beispielsweise kontextspezifische Links in Wikipedia-Artikel ein, damit ein Autor mit nur zwei Klicks vorformulierte Begrüßungen bereits beim Betrachten der Nutzerseite oder der Versionsgeschichte verschicken konnte. Ähnlich werden mit Twinkle stärker administrative Aufgaben vorbereitet (Das Prinzip aber bleibt das selbe). So kann ein Bearbeiter beispielsweise einen Artikel mit drei Klicks für die Löschung vorschlagen: mit dem ersten zum Öffnen des Vorschlagsfeldes, dem zweiten zur Auswahl aus zahlreichen vorformulierten Begründungen und dem dritten zum Abschicken. Darauf regelt Twinkle den gesamten Austausch, der im Rahmen der Wikipedia-Löschregelungen notwendig ist, um diesen Vorgang als ordnungsgemäß anzuerkennen.
Insgesamt ermöglichen die beiden Tools den Power Usern, rasch, effizient und gemäß anerkannter Verfahren zu handeln. In der Funktionsweise unterscheiden sie sich zwar von den eigenständigen Tools, die die Aufmerksamkeit des Nutzers in eine Richtung lenken, hin zu stark reglementierten Handlungsmöglichkeiten. Beide aber dienten bzw. dienen dazu, soziale Normen, organisatorische Verfahren und Diskursregeln zu konkretisieren, weil sich eine ganz bestimmte Auffassung davon, wie bestimmte Arten von Arbeiten in Wikipedia auszuführen sind, im Computerprogramm manifestierte.
Mehr als "Kraftverstärker"?
Dass Bots und Tools nach allgemeinem Verständnis nur Kraftverstärker seien, dass sie also Power Usern lediglich ermöglichten, gewohnte Arbeiten einfach effizienter und produktiver zu erledigen – diese Auffassung kann man mit diesem Wissen nicht teilen. Das mag vielleicht für die ersten Bots noch gelten: Ihre Funktionen hätte theoretisch ein eigens dafür eingesetzter Bearbeiter ewig wiederholt ausführen können – etwa das manuelle Kopieren und Einsetzen von Artikeln der 1911 Encyclopedia Britannica oder die Suche und Korrektur nach "Untied States of America" . Aber: Nachdem Bots und Tools erst einmal nahezu in Echtzeit funktionierten, machten sie es praktisch unmöglich, Artikel anders als auf eine bestimmte, algorithmisch determinierte Art und Weise zu bearbeiten. Sie wurden zu Gatekeepern (quasi "Schrankenwärtern" ) einer bestimmten Vorstellung der Inhalte. Oder angelehnt an Bruno Latours berühmte Unterscheidung zwischen einem englischen Butler und einem automatischen Türschließer müsste man sagen: Bots und die toolunterstützten Benutzer wurden eher zu echten "Schranken" als nur zu Schrankenwärtern, betrachtet man, wie tief bestimmte automatisierte Ausschlussverfahren sowohl in die technologische Infrastruktur der Wikipedia als auch in ihre soziale Struktur bereits verankert waren. Ein Beispiel: Seitdem ein Bot Signaturen "vergesslicher" Benutzer automatisch hinzufügt – was vor seiner Entwicklung routinemäßig von Wikipedianern manuell erledigt wurde –, sind Signaturen und Zeitstempel bei Kommentaren Vorschrift. Sehr zum Missfallen einer kleinen aber lautstarken Minderheit, die Signaturen und Zeitstempel in ihren Kommentaren ablehnt. Ebenfalls wegen bestimmter Bots wurden Urheberrechtsangaben beim Hochladen von Bildern verbindlich vorgeschrieben, was für kurze Zeit zu hitzigen Kontroversen führte. Denn nun wurden urheberrechtlich geschützte Bilder, die aber nach dem angloamerikanischen Rechtsgrundsatz des Fair Use (der angemessenen Verwendung) unter bestimmten Voraussetzungen legal verwendet werden dürfen, von einem Bot systematisch aus der Enzyklopädie entfernt.
Das soll nicht heißen, dass manche Tools nicht tatsächlich als Kraftverstärker wirkten. Sie versetzten Wikipedia-Autoren und andere durchaus in die Lage, Beiträge viel effizienter zu überprüfen und oder Beiträge gar nicht erst anzunehmen Dass hierfür allerdings entscheidende Aspekte dieses Vorgangs automatisiert wurden, wirkte sich nachhaltig darauf aus, wie die Wikipedianer als Gemeinschaft mit Neulingen kommunizierten. Mit Ausnahme von "Friendly" wurden alle anderen Bots und Tools dazu entwickelt, nicht ganz perfekte Beiträge und ihre Bearbeiter zu ermitteln, sie über ihre Fehler zu informieren und sie vor den Folgen bei ähnlichen Fällen zu warnen. Da Kritisieren und Warnen jetzt automatisiert waren, Begrüßen und Loben hingegen nicht, nahmen Kritik und Warnungen nun in höherem Maße zu. Folge dieser Entwicklung: Seit 2006 dominieren die Bots die Verständigung zwischen den Wikipedianern. Bis Ende 2007 erhielt die Hälfte aller neuen Wikipedia-Nutzer ihre erste Nachricht von einem Tool oder Bot. Der Anteil stieg bis Mitte 2008 auf 75%, und er steigt in ähnlichem Tempo bis heute.
Fazit: Bots heute und morgen
Auch 2012 sind Bots aus der globalen Produktion von Wikipedia-Artikeln nicht mehr wegzudenken. Gemessen an der Zahl der Artikelbearbeitungen sind 17 der zwanzig produktivsten Bearbeiter vollautomatische Bots; Überprüfungen werden nach wie vor von halbautomatischen Tools dominiert. Während die ersten Bots noch dem Verfassen neuer Artikel und dem Aufbau der Enzyklopädie dienten, fungieren moderne Bots als Immunsystem, das die Wikipedia vor schädlichen Bearbeitungen schützt. Die Frage ist nun: Sind wir mit diesen Bots vielleicht zu weit gegangen? Gibt es für sie möglicherweise andere Aufgaben? In diesem Zusammenhang erwähnenswert ist der vieldiskutierte Rückgang der Autorenzahlen seit dem Höchststand 2007–2008. Sogar langjährige Mitarbeiter haben sich von dem Projekt abgewendet, und es gibt nicht genug neue Autoren. Damals wurde Wikipedia als unzuverlässig kritisiert da sie sich selbst als die Enzyklopädie propagierte, an der jeder mitwirken könne.
Heute hingegen wird sie kritisiert, weil ihre Artikel unglaublich schwierig zu bearbeiten seien. Die Medien kolportieren Fälle, in denen sogar Beiträge von Hochschulprofessoren abgelehnt werden; und viele Persönlichkeiten des öffentlichen Lebens äußern ihren Unmut darüber, Fehler in ihren Biographien nicht korrigieren zu können. Zudem geriet die Wikipedia in die Kritik aktueller Untersuchungen , denen zufolge unverhältnismäßig viele Bearbeiter junge männliche US-Amerikaner und Europäer seien.
Es wäre sicherlich überzogen zu behaupten, Bots seien die Ursache allen Übels.Die Art und Weise, wie Bots einen raschen und reibungslosen Ablehnungsmodus ermöglichten, mag auch die Hoffnung wecken, sie könnten einmal sinnvoll dafür verwendet werden, Mitarbeiter zu werben und zu halten. Derzeit läuft im Umfeld der Wikimedia Foundation eine ganze Reihe von Versuchen, die zeigen soll, wie Nachrichten, die Bots bei der Ablehnung von Artikeln verschicken, positiv formuliert werden könnten. Die Überlegung dabei ist Folgende: Wenn Bots freundlicher und konstruktiver würden, könnten sie den Bearbeitern helfen, eine Ablehnung zu verwinden, und sie motivieren, sich künftig an die häufig komplizierten Wikipedia-Regeln zu halten. Da zahlreiche Wikipedia-Autoren und Mitarbeiter der Wikimedia Foundation sich dafür engagieren, die Website benutzerfreundlicher zu gestalten, wird sich wohl ein Großteil neuer Forschungen und der Software-Entwicklung auf solche Bots und Tools richten, die Neulingen helfen, sich als Bearbeiter zu verbessern. Wenn beispielsweise jemand einen Artikelabschnitt verfasst und darin eine MySpace-Seite zitiert, macht derzeit mit einiger Sicherheit noch ein "Anti-Spam-Bot" die Bearbeitung prompt rückgängig. In Zukunft aber ist vorstellbar, dass stattdessen ein schon während der Eingabe ein Hinweis im entsprechenden Textfenster erscheint. Fügt ein Benutzer also einen Link ein, der eigentlich entfernt werden müsste, kann er höflich darauf hingewiesen und über die Gründe aufgeklärt werden – und die Chance bekommen, eine alternative Quelle anzugeben. Ebenso denkbar sind Bots, die verunsicherte Neulinge mit erfahrenen Bearbeitern als Mentoren zusammenbringen – oder sogar selbst als Mentoren dienen und neue wie alte Wikipedianer durch die enzyklopädische Wildnis führen.
Der Text basiert auf einem englischen Beitrag aus dem Reader zur Konferenz "Wikipedia: Ein kritischer Standpunkt" Externer Link: Geert Lovink and Nathaniel Tkacz (Hrsg.)(2011): Critical Point of View: A Wikipedia Reader