„Wikipedia:Bots/Anfragen“ – Versionsunterschied

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 8 Jahren von Doc Taxon in Abschnitt Fehlendes Leerzeichen vor und
Zur Navigation springen Zur Suche springen
Inhalt gelöscht Inhalt hinzugefügt
SpBot (Diskussion | Beiträge)
K Archiviere 1 Abschnitt: 1 nach Wikipedia:Bots/Anfragen/Archiv/2015-2 - letzte Bearbeitung: Mfb, 2016-01-07 23:36
(3 dazwischenliegende Versionen von 2 Benutzern werden nicht angezeigt)
Zeile 1.082: Zeile 1.082:
{{ping|Ali1610}} Ah, jetzt weiß ich auch, warum so viel übrig geblieben ist. Ich bin dran, – [[user:Doc Taxon|Doc Taxon]] • <small>[[user talk:Doc Taxon|Diskussion]]</small> • <small>[[WP:München/Wiki-MUC|Wiki-MUC]]</small> • ''[[WP:LI|Wikiliebe?!]]'' •<small> 13:42, 7. Jan. 2016 (CET)</small>
{{ping|Ali1610}} Ah, jetzt weiß ich auch, warum so viel übrig geblieben ist. Ich bin dran, – [[user:Doc Taxon|Doc Taxon]] • <small>[[user talk:Doc Taxon|Diskussion]]</small> • <small>[[WP:München/Wiki-MUC|Wiki-MUC]]</small> • ''[[WP:LI|Wikiliebe?!]]'' •<small> 13:42, 7. Jan. 2016 (CET)</small>
{{erledigt|– [[user:Doc Taxon|Doc Taxon]] • <small>[[user talk:Doc Taxon|Diskussion]]</small> • <small>[[WP:München/Wiki-MUC|Wiki-MUC]]</small> • ''[[WP:LI|Wikiliebe?!]]'' •<small> 22:09, 7. Jan. 2016 (CET)</small>}}
{{erledigt|– [[user:Doc Taxon|Doc Taxon]] • <small>[[user talk:Doc Taxon|Diskussion]]</small> • <small>[[WP:München/Wiki-MUC|Wiki-MUC]]</small> • ''[[WP:LI|Wikiliebe?!]]'' •<small> 22:09, 7. Jan. 2016 (CET)</small>}}

== Fehlendes Leerzeichen vor ''und'' ==

Die Suche nach {{Wikipedia-Suche|insource:/\-und /}} liefert ~1200 Treffer. Bei einem Grossteil davon fehlt zwischen <code>-</code> und <code>und</code> ein Leerzeichen. Kriegt es jemand hin, die Falsch-Positiven zu eliminieren und die Korrekturen per Bot zu machen? --[[Benutzer:Leyo|Leyo]] 17:20, 8. Jan. 2016 (CET)
:oh je oh je oh je, das ist ja schlimm! Das kann so nicht bleiben, ich kümmere mich drum. – [[user:Doc Taxon|Doc Taxon]] • <small>[[user talk:Doc Taxon|Diskussion]]</small> • <small>[[WP:München/Wiki-MUC|Wiki-MUC]]</small> • ''[[WP:LI|Wikiliebe?!]]'' •<small> 17:32, 8. Jan. 2016 (CET)</small>
{{InuseBot|TaxonBot|Doc Taxon}}

Halt: -oder noch mitnehmen! – [[user:Doc Taxon|Doc Taxon]] • <small>[[user talk:Doc Taxon|Diskussion]]</small> • <small>[[WP:München/Wiki-MUC|Wiki-MUC]]</small> • ''[[WP:LI|Wikiliebe?!]]'' •<small> 19:38, 8. Jan. 2016 (CET)</small>

und -sowie {{s}} – [[user:Doc Taxon|Doc Taxon]] • <small>[[user talk:Doc Taxon|Diskussion]]</small> • <small>[[WP:München/Wiki-MUC|Wiki-MUC]]</small> • ''[[WP:LI|Wikiliebe?!]]'' •<small> 19:47, 8. Jan. 2016 (CET)</small>

Version vom 8. Januar 2016, 19:47 Uhr

Hier ist Platz, Bearbeitungs- und Änderungswünsche an die Botbetreiber zu notieren, die in „Handarbeit“ ausgeführt eher als Zumutung gelten können, zum Beispiel das Korrigieren von mehr als 50 Einbindungen einer verschobenen Vorlage (gilt nur für zu löschende Falschschreibungsweiterleitungen auf Vorlagen!). Wenn du Fragen hast, kannst du Botbetreiber auch im IRC-Channel [#wikipedia-de-bots] Webchat erreichen. Für Besprechungen unter den Botbetreibern oder zur Koordination von wichtigen Änderungen (z. B. an der API) gibt es die Bot/Notizen.

Für Anfragesteller gilt
  1. Anfragen bitte begründen, gegebenenfalls mit Links auf relevante Diskussionen, und unterschreiben.
  2. Es gibt keine Verpflichtung der Botbetreiber, diesen Anfragen nachzukommen, und insofern auch keinen Anspruch auf Umsetzung eines Änderungswunsches.
  3. Größere Änderungen an Artikeln eines Themengebietes, z. B. an Einbindungen viel genutzter Vorlagen, bitte mit den jeweiligen Fachportalen oder -redaktionen abstimmen. Die Verantwortung für die Aktion liegt beim Anfragesteller.
  4. Vor dem Stellen einer Anfrage, die einen regelmäßigen Boteinsatz und keine einmalige (Massen-)Änderung betrifft, bitte ebenfalls das betroffene Portal bzw. Projekt informieren und den geplanten Boteinsatz dort diskutieren.
  5. Bei einem Boteinsatz ist oft noch Vor- und Nacharbeit durch den Anfragesteller notwendig, zum Beispiel nach Auflösung von Weiterleitungen die Kontrolle und das Stellen eines Schnelllöschantrages. Auch kann es immer Fälle geben, in denen der Bot nicht richtig arbeitet und die dann manuell nachgearbeitet werden müssen.
  6. Ent- oder Umkategorisierungen von Artikeln in die Kategoriendiskussion eintragen, dort diskutieren und dann in die Warteschlange des WikiProjekts Kategorien stellen.
  7. Ein einfaches Umbiegen von Links nach einer Verschiebung auf das neue Ziel wird grundsätzlich nicht vorgenommen. Umgebogen werden können Verweise auf zwingend zu löschende Weiterleitungen – wie z. B. bei Falschschreibungs-Weiterleitungen oder nach Verschiebungen falsch geschriebener Vorlagen.
  8. Änderungen der Signatur können in Fällen durchgeführt werden, in denen zahlreiche Links auf eine falsche Benutzerseite zeigen. Dies jedoch nur, falls die Korrektur nicht mittels Weiterleitungen möglich ist (beispielsweise bei im Rahmen der SUL-Finalisierung umbenannten Benutzern).
  9. Es werden keine Änderungen der Rechtschreibung zwischen zulässigen Versionen bzw. Variationen durchgeführt.
Für Botbetreiber gilt
  1. Jeder Botbetreiber ist verpflichtet, die Sinnhaftigkeit vor Ausführung eines Änderungswunsches zu prüfen und bei Einsprüchen gegebenenfalls von der Änderung abzusehen (kein blindes Vertrauen in die Angemessenheit/Richtigkeit hier gestellter Anfragen).
  2. Für jede hier gelistete Anfrage gelten die auf Wikipedia:Bots genannten grundsätzlichen Regeln (zum Beispiel keine Änderungen im Benutzer- oder Wikipedia-Namensraum ohne Absprache).
  3. Bot-Anfragen (insbesondere nach Löschdiskussionen) sollten mindestens 3 Tage ruhen, um eine gegebenenfalls initiierte Löschprüfung nicht durch vollendete Tatsachen unmöglich zu machen. Bei offensichtlichen Botaufträgen (z. B. aus einer Portal-Diskussion für das Portal beschlossene Änderungen und dergleichen) ist diese Wartezeit nicht zwingend notwendig, desgleichen nicht für „Anfrage-Aufträge“, die keine Seiten in der Wikipedia ändern.
Durchführung
  • Die Botbetreiber sollen bitte vor Umsetzung den jeweiligen Punkt entsprechend kommentieren, um Überschneidungen zu vermeiden.
  • Dazu sollte vor dem Botstart hier im entsprechenden Abschnitt die Vorlage InuseBot platziert werden:
{{InuseBot|Botname|Betreiber}}
  • Den Bot bitte sorgfältig beobachten!
  • Bitte nach Erledigung den Punkt in der Liste als erledigt kennzeichnen.
Abkürzung: WP:BA, WP:BOT/A, WP:B/A


Auf dieser Seite werden Abschnitte ab Überschriftenebene 2 automatisch archiviert, die seit 3 Tagen mit dem Baustein {{Erledigt|1=--~~~~}} versehen sind. Die Archivübersicht befindet sich unter Wikipedia:Bots/Anfragen/Archiv.
Vorlage:Autoarchiv-Erledigt/Wartung/Festes_Ziel

Anzeige von fälligen KLA-Kandidaturen

Moin! Ich möchte in Erfahrung bringen, ob ein Bot fällige WP:KLA-Kandiaturen in eine noch zu erstellende Vorlage schreiben kann. Nach zehn Tagen können diese ausgewertet werden, häufig passiert das jedoch viel später. Das hängt damit zusammen, dass an die Auswertung nur auf der Diskussionsseite erinnert wird, und dort nur ein relativ kleiner Personenkreis angesprochen wird - übrigens ein Personenkreis, der selbst kräftig mitstimmt und für die Auswertung nicht in Frage kommt. Eine automatisch gepflegte Vorlage könnte z.B. auch bei WP:KALP oder WP:R angebracht werden. Sie müsste lediglich nach Ablauf der Frist (10 Tage ab Erstellung) den entsprechenden Artikel inkl. dem Link zur Diskussion angeben. Ist das vollautomatisiert möglich? --Spielertyp (Diskussion) 13:12, 29. Jun. 2013 (CEST)Beantworten

Da ich gerade eine Anfrage zur KALP-Benachrichtigung auf meiner DS habe (vielleicht gehts das dann in einem Abwasch): Was soll der Bot denn genau machen?  @xqt 08:51, 14. Jul. 2013 (CEST)Beantworten

(Späte Antwort wegen Urlaubs) Die kurze Diskussion dazu findet sich hier: Wikipedia_Diskussion:Kandidaten_für_lesenswerte_Artikel#Auswertung. Meine erste Überlegung war, eine Vorlage zu haben, in welche der Bot am 10. Tage den Artikel einträgt. Ab dann sind die Kandidaten nämlich fällig. Zusätzliche Spielereien, die die Verwaltung erleichtern können, wären denkbar: Kopiervorlage für {{Lesenswert}} sowie die Stimmen. Vielleicht als Box zum Ausklappen. --Spielertyp (Diskussion) 23:46, 18. Jul. 2013 (CEST)Beantworten

Lesenswert-Vorlage funktioniert nicht, da müsste der Bot immer den Permanentlink austauschen sobald jemand den Artikel editiert - und auf neuen Unfug in der letzten Version (=potentielle Auszeichnungsversion) sollte man den Artikel eh prüfen. Und die Stimmen kann ein Bot auch nicht auswerten, solange nicht alle konsequent und perfekt die Vorlagen benutzen (wird nicht passieren). Es ist einfach, bei einem KLA-Besuch die ältesten Artikel anzuschauen, ich denke am Sehen liegt ein Auswertungsrückstand nicht, eher an mangelnden Stimmen (Verlängerung also sinnvoll) oder schwierigen Auswertungen die ggf. Fachwissen benötigen, um Einwände beurteilen zu können.
Nützlicher wäre ein Bot, der nach einer Auswertung die Verwaltungsseiten aktualisiert. Auf meiner Spielwiese habe ich dazu ein paar Infos gesammelt. --mfb (Diskussion) 17:19, 10. Mär. 2014 (CET)Beantworten
@Mfb, Spielertyp:Ich könnte das wohl übernehmen, aber dann müsstet ihr mir noch mal im Detail erklären, was der Bot genau machen soll, da blicke ich momentan nicht durch ein SmileysymbolVorlage:Smiley/Wartung/:-( . Gruß, Luke081515 17:58, 11. Mai 2015 (CEST)Beantworten
Kommt darauf an, wie groß das werden soll.
Wikipedia:Exzellente Artikel/nach Datum und Wikipedia:Lesenswerte Artikel/nach Datum sowie ggf. Wikipedia:Statistik der exzellenten Artikel und Wikipedia:Statistik der lesenswerten Artikel nach Datum zu pflegen würde schon etwas helfen.
In Wikipedia:Hauptseite/Schon_gewusst/Archiv/2010/07 werden FA/GA/Informative Listen hervorgehoben, auf der zentralen Archivseite Wikipedia:Hauptseite/Schon_gewusst/Archiv stehen die Anzahlen. Laut SchonGewusst-Experten soll das jeweils den aktuellen Stand für FA/GA/IL darstellen, also ggf. aktualisiert werden wenn ein Artikel den Status ändert.
In Kombination mit dem Artikel des Tages wäre es vorstellbar, Wikipedia:Hauptseite/Artikel_des_Tages/Verwaltung und Wikipedia:Exzellente Artikel zu kombinieren. Beides auf der gleichen Seite, oder ein Mensch bearbeitet nur einen Artikel und der Bot den anderen (dafür müssten die Gruppen aber zwingend angeglichen werden). Eine solche Änderung würde natürlich vorher eine Diskussion erfordern. Unabhängig davon könnte ein Bot die AdT-Vorschlagsseiten auswerten und die Verwaltungsseite aktuell halten. --mfb (Diskussion) 20:42, 11. Mai 2015 (CEST)Beantworten
Ok, das wo die Diskussion erforderlich ist, mach ich aber erst, wenn die auch Stattgefunden hat, sonst ist es nacher viel unnütze Arbeit. Zu dem mit den AdT Vorschlagsseiten bräuchte ich ein möglichst genaues Konzept, kannst du mir das auf meine Botdisk schreiben, mfb? Das würde mir die Koordination sehr erleichtern, weil ich mich in dem Bereich (bis jetzt) nicht auskenne. Viele Grüße, Luke081515 22:18, 11. Mai 2015 (CEST)Beantworten
--> Benutzer_Diskussion:Luke081515Bot#Wikipedia:Hauptseite.2FArtikel_des_Tages.2FVerwaltung --mfb (Diskussion) 00:23, 12. Mai 2015 (CEST)Beantworten

Danke. Luke081515 08:59, 12. Mai 2015 (CEST)Beantworten


In Arbeit bzw. in Vorbereitung, siehe [1]. Luke081515 02:47, 14. Mai 2015 (CEST)Beantworten

Ref-Bot: "Eierlegende Wollmilchsau"

Hallo! Es wäre super, wenn man Internetlinks der Form "www.Text.Domain.BlaBlub.html" als Refernzen in die ref Klammern eintragen würde und dann ein Bot alles weitere automatisch erledigt. Abrufdatum, Datum der Veröf., Titel, Autor, usw automatisch anhand des Links nachtragen würde. Es wäre schon gut, wenn zunächst nur einige bekannte Onlinemedien darunter erfasst würden.--Alberto568 (Diskussion) 18:26, 9. Nov. 2013 (CET)Beantworten

Das würde nur bei Webseiten funktionieren, die eine feste Struktur haben, so dass ein Bot-Programm Autor, Titel etc. sicher identifizieren kann. Und das am besten seit Bestehen der Seite/WP, damit auch alte Refs korrekt verarbeitet werden. Außerdem sollten sich die Inhalte einer Seite nicht ändern, damit man nicht was falsches referenziert. In der Summe dürfte das nur relativ selten zutreffen. Schwebt dir eine konkrete Webseite vor? So allgemein kann man zur Machbarkeit sonst wenig sagen. Es wird jedenfalls keinen Bot geben, der beliebige Webseiten in obigem Sinne abarbeiten kann.-Berita (Diskussion) 12:08, 12. Nov. 2013 (CET)Beantworten
Beispiel sind:
  • www.sueddeutsche.de
  • welt.de
  • faz.net
  • spiegel.de
  • stern.de

usw. --Alberto568 (Diskussion) 18:55, 18. Nov. 2013 (CET)Beantworten

Kennst du tools:~dispenser/view/Reflinks? --Leyo 20:08, 21. Nov. 2013 (CET)Beantworten
Für einige Webseiten wäre eine technische Umsetzung durch die Auswertung der COinS-Daten sicherlich möglich. Zotero kann zumindest bei einigen der Webseiten die Daten automatisch übernehmen. Keine Ahnung, ob über das COinS-Format oder andere Spezifikationen. Ist die Frage, ob wer Lust hat seinem Bot das beizubringen. --Häuslebauer (Diskussion) 00:50, 3. Feb. 2014 (CET)Beantworten
Offenbar fand sich niemand, der das bauen möchte. --Krd 20:44, 27. Dez. 2014 (CET)Beantworten

Ich habe mal die Erle entfernt, da ich weiß, dass Benutzer:Kuebi an etwas ähnlichem (fortgeschritten) bastelt. --Drahreg01 (Diskussion) 21:24, 27. Dez. 2014 (CET)Beantworten

In der Tat (Zitat: A. Klenk), ich bastle an so etwas. Das ist zwar derzeit nur ein Script (mehr dazu: Benutzer:Kuebi/Weblinkeditor), aber das Thema ist sehr komplex. Selbst eine einzelne Domain wie spiegel.de kann einem fast zum Wahnsinn treiben. Nicht nur, dass nackte PDF-Dateien zu den entsprechenden Artikeln verlinkt werden, da gibt es noch Bilder, Flash-Animationen, Spiegel-Videos, Spiegel-Fotostrecken, Spiegel Online, die Printversion, Spiegel Special, Spiegel Kultur, u.v.a.m. und unfreundlicherweise sind die alle irgendwie anders codiert. Mit dem Titel klappt es meist noch ganz gut, aber Autor(en) und vor allem Datumscodierung variieren sehr stark. Es ist unglaublich wieviel Datumsformate es gibt und leider auch genutzt werden. Aus der Vielzahl der Formate muss auch noch das Richtige erkannt werden (nicht das Tagesdatum, nicht das des letzten Kommentars). Das Script lernt mit jedem Edit. Faktisch schraube ich ständig an Erweiterungen herum. Die wesentlichen deutschsprachigen Leitmedien (alle o.a.) funktionieren jetzt ganz gut. Zu den Varianten der Quellen kommen noch Varianten bei der Verlinkung in der Referenz hinzu. Reine nackte Links sind ja ein Kinderspiel. Aber es gibt Zeitgenossen, die setzen gleich vier davon in eine Referenz. Dann wird noch auf die verrückteste Art und Weise der Link garniert: von Kurzzitaten bis zu mehrzeiligen Zitaten – die erhalten werden müssen – sich aber für ein dummes Programm kaum von anderen, verzichtbaren Angaben (wie beispielsweise dem Artikeltitel /-untertitel unterscheiden). Dann werden an die Links so nette Verzierungen wie Gedankenstriche, Kommata, Semikolons, Doppelpunkte u.v.a.m. angehängt, die beim Aufruf gnadenlos Fehler erzeugen, wenn sie nicht ausgefiltert werden. Heute hatte ich einen mit drei /// hinter dem http:. Ich könnte stundenlang erzählen. Außer dem Script, das ich momentan auf Artikelschwergewichte wie Adolf Hitler, Brustkrebs, Alzheimer-Krankheit, Autismus loslasse und dort teste, gibt es noch einen Linkformatierer der öffentlich zugänglich ist. Der benutzt dieselben Module wie das Script, hat aber ein völlig anderes Interface. Zu testen ist der Linkformatierer hier. Einfach einen Weblink eines Mediums eingeben und das Ding wirft bei den wichtigsten Medien auch was brauchbares aus. Ich habe mittlerweile ca. 90 unterschiedliche Websites erfolgreich (z.T. nach Anpassungen) getestet. Wünsche und Verbesserungen können dort per Formular geäußert werden (natürlich auch auf meiner Diskussionsseite). --Kuebi [ · Δ] 23:27, 27. Dez. 2014 (CET)Beantworten

@Kuebi: Um mal nachzufragen: Gibts da was neues? Viele Grüße, Luke081515 17:59, 11. Mai 2015 (CEST)Beantworten

@Luke081515: Im Moment nix Neues. Wenn es das RL mal wieder zulässt, mache ich an dem Programm weiter. Der Literaturformatierer läuft. Eine Bot-Version ist noch Zukunftsmusik. Eine Zwischenlösung aus Lemma rein und optimierte Links als Quelltext raus gut machbar.--Kuebi [ · Δ] 10:56, 12. Mai 2015 (CEST)Beantworten

Ich erlaube mir mal, hier Benutzer:PerfektesChaos/js/citoidWikitext reinzuschmeißen. Dürfte etliches von dem können, was hier gefordert wurde. LG --PerfektesChaos 20:26, 7. Jun. 2015 (CEST)Beantworten

Ein Botscript, das in diese Richtung geht, gibt es schon. Es wird hier beschrieben. Kann mal jemand einen Blick drauf werfen, ob es dem entspricht, was hier gemacht werden soll, ggf. passe ich das gerne an.  @xqt 17:19, 10. Jun. 2015 (CEST)Beantworten

Gemäß Beschreibung fügt das Script ausschließlich Titel aus dem HTML-Tag "title" ein. Das mag besser als nichts sein, geht aber nicht in die Richtung der Überlegungen hier. --mfb (Diskussion) 22:48, 10. Jun. 2015 (CEST)Beantworten

Wikipedia:Redundanz/Knacknüsse - per Bot erstellte Liste

Wikipedia:Redundanz/Knacknüsse wurde anscheinend mal händisch erstellt und dann mehr oder weniger gepflegt. Jedenfalls scheint es recht aufwändig. Mein Vorschlag daher: Kann nicht ein Bot solch eine List erstellen. Und zwar: Grundgesamtheit sind alle Artikel, die aktuell einen Redundanzbaustein haben. Für diese Artikel wird Version für Version geprüft, seit wann sie ununterbrochen einen Redundanzbaustein tragen und das entsprechende Datum gespeichert. Der Bot erstellt dann eine WP:Liste der am längsten bestehenden aktuellen Redundanzen. Diese kann dann gerne in regelmäßigen Abständen aktualisiert werden.

Problemchen bei dem Vorschlag: Es ergibt sich eine Artikelliste, keine Liste der "Redundanzfamilien". Da das aber denke ich schwieriger zu lösen ist mein obiger Vorschlag. Denn manchmal kommen zu 2er-Redundanzen ja noch weitere Redundanzen dazu etc.

Ich bin gespannt. --Zulu55 (Diskussion) Unwissen 09:47, 15. Jul. 2014 (CEST) (Eine themenverwandte Anfrage gab es schon mal unter Wikipedia:Bots/Anfragen/Archiv/2009-1#.C3.9Cbersicht_der_Redundanzen_erstellen., damals insbesondere von Benutzer:Merlissimo bearbeitet.) --Zulu55 (Diskussion) Unwissen 09:54, 15. Jul. 2014 (CEST)Beantworten

Wir haben ein paar Vorlagen, die automatisch eine Kategorie füllen, in der die Artikel nach Eintragedatum sortiert werden (Vorlage:OTRS, Vorlage:Temporärkopie, ...). Das geht nicht rückwirkend, wäre für die Zukunft aber vorstellbar. Gruppieren lassen sich die Artikel in einer Kategorie natürlich nicht. Aber die Artikel werden doch eh schon in Monatskategorien einsortiert: Kategorie:Wikipedia:Redundanz. Reicht das nicht, um die ältesten Einträge zu finden? --mfb (Diskussion) 23:38, 7. Jun. 2015 (CEST)Beantworten

Toolserver → Toollabs

Auf unzähligen Seiten sind noch Toolserver-Tools verlinkt, obwohl die dort nicht mehr vorhanden sind bzw. nach Toollabs umgezogen sind. Es fände es sehr hilfreich, wenn zumindest für die häufig verlinkten Tools die Links per Bot angepasst werden könnten. Ich würde ein Vorgehen nach Namensräumen vorschlagen:

  • (Seite): wohl nicht selten direkt im Quelltext drin
  • Vorlage: durchführen
  • Kategorie: durchführen
  • Hilfe: abzuklären
  • Wikipedia: durchführen, falls keine Diskussionsbeiträge enthalten sind (auf (CET)/(CEST) prüfen)
  • Benutzer: würde ich befürworten

--Leyo 00:11, 7. Aug. 2014 (CEST)Beantworten

Links auf die Stimmberechtigung tools:~guandalug/tools/stimmberechtigung.php und tools:~chm/stimmberechtigung.php. Die meisten davon auf gesperrten Seiten. Am besten durch Vorlage Vorlage:Stimmberechtigt ersetzen. --Nachcommonsverschieber (Diskussion) 11:54, 30. Aug. 2014 (CEST)Beantworten


Ich habe mittlerweile alle erreichbaren Einzelstücke gefixt oder ansonsten kategorisiert; auch unter Mitwirkung von Benutzer:Nachcommonsverschieber. Ich habe alle URL überflogen.

  • Statistik:
    • Es gibt heute insgesamt rund 42.000 URL im Projekt.
  • Namensräume:
    • Wir haben eine allgemeine Praxis, wie wir bei solchen Fixereien vorgehen:
      • Hier: Nur noch Namensräume 4, 10, 14, 100;
      • Ausschluss bei /Archiv im Seitennamen;
      • auch nicht AK, FzW, LK, MB (CU, SG, SP, VM, WP:Administ... haben /Archiv/).
    • Auf gesperrten Seiten, Diskussionen, in Archiven längst vergessener Angelegenheiten wird nicht mehr masseneditiert. Es ist auch völlig Wurscht, ob das Stimmberechtigungstool zu einer Wahl, die 2009 mal stattgefunden hatte, und wo der Gewählte schon vor zwei Jahren die Knöpfe wieder abgegeben hatte, jetzt noch auf Klick die Stimmberechtigung feststellen kann. Sollte das wirklich sechs Jahre später jemanden interessieren (Was will man damit anfangen? Was für Konsequenzen hätte das?), dann können die Daten in ein aktuelles Stimmberechtigungstool geworfen werden. Und ein Editcount in einer Angelegenheit von 2007 lieferte damals die Benutzerbeiträge bis 2007, heute die bis 2024; die damaligen Zahlen werden nicht mehr reproduziert. An einer FzW von 2008 herumzulinkfixen ist höherer Blödsinn.
    • Benutzer: Die können ihre Links selbst fixen, sofern sie noch aktiv sind; WP:LT hilft gern. Die überwiegende Zahl der Benutzer ist nicht mehr aktiv, und der Rest macht einen Zwergenaufstand, wenn ein Bot in ihren Seiten herumpfuscht.
    • Artikel, Hilfe, MediaWiki: Alle bekannt und kategorisiert. Zurzeit kein Fix mehr möglich. Artikel sind weniger als 20. Datei gibt es praktisch nicht (mehr); wenn WP:LT/giftbot/weblinksuche hoffentlich mal aus dem Streik kommt, kann man die ein oder zwei Dateibeschreibungsseiten noch mal suchen.
  • Arbeitsschwerpunkt:
    • Das sollte die Unterstützung der Portale, Redaktionen, WikiProjekte sein; die benötigen für ihre tägliche Wartungsarbeit Werkzeuge, insbesondere Catscan.
    • Die haben alle voneinander abgeschrieben und verwenden vielhundertfach URL mit gleicher Struktur, nur unterschieden durch:
      • Kategorien (Vorsicht: Separator zwischen mehreren Kategorien nicht mehr Pipe, sondern %0D%0A)
      • Unterkat-Tiefe
      • Alter in Stunden
      • Maximalgröße von Stubs
      • Linkanzahl von Stubs
    • Es gibt 7800 nicht mehr funktionierende URL auf
      //toolserver.org/~daniel/WikiSense/CategoryIntersect.php?wikilang=de&wikifam=.wikipedia.org&basecat=*-*-*-*-*&basedeep=.....&go=Scannen&userlang=de
    • Sie können zu jeweils mehreren Hundert gleichen Schemas ersetzt werden durch
      {{fullurl:toollabs:catscan2/catscan2.php|project=wikipedia&language=de&categories=*-*-*-*-*&...........&interface_language=de&doit=1#results}}
      • Verbreitet ist etwa: &mode=rc&hours= für „Neue Artikel“, jetzt max_age= mit only_new=1.
      • Ebenso öfters &mode=ss&size= und mehr für Stubs, jetzt smaller=
      • Trivial ist Ersatz von ~magnus/catscan_rewrite.php – Parameter sind gleich.
    • Nur in Portalen auf rund 210 Seiten:
      //toolserver.org/~erwin85/randomarticle.php?
      durch
      {{fullurl:toollabs:erwin85/randomarticle.php| und hinten dran }}
    • Bei vielen Portalen/Red. gibt es
      ~magnus/deep_out_of_sight.php?
      und
      ~magnus/deep_insight.php?
      als
      {{fullurl:toollabs:sighting/deep out of sight.php|
      und
      {{fullurl:toollabs:sighting/sighting/deep insight.php|
    • Bei knapp 50 WikiProjekten gibt es trivialen Ersatz für
      //toolserver.org/~kolossos/templatetiger/tt-table4.php?
  • Um die Beos nicht zu ersäufen, sollte versucht werden, nach Rumprobieren an Einzelschicksalen in einem automatischen Lauf möglichst viele URL in einem Edit zu fixen. Aber das wissen Botbetreiber ja selbst.
  • Ich hätte gern die Form mit {{fullurl:toollabs:, einer Pipe und hintendran irgendwo noch }} – falls denen eines Tages einfällt, auf wmftools.org umzurüsten, hätten wir schon mal die richtige URL und keinen Zoff mit Weiterleitung, CORS, unerlaubter Domain. (Die Domain scheint verkäuflich zu sein; ob man sie sich als Faustpfand sichern sollte?)
  • Insgesamt schätze ich, dass sich bei 10 % der URL (also 4000–5000) der Aufwand für eine Reparatur lohnen würde, weil mit den Tools noch gearbeitet wird. Der Rest steht auf Seiten, mit die nicht mehr genutzt werden, die niemand mehr liest, und die voller redlinks sind; oder die in Eigenverantwortung noch aktiver Benutzer liegen. Gerade letztere sind auch völlig bunt und individuell und können nicht systematisch repariert werden.

Liebe Grüße --PerfektesChaos 22:39, 2. Sep. 2014 (CEST)Beantworten

Danke für deine umfassenden Ausführungen!
Einen Punkt sehe ich anders als du: Die Mehrheit der Benutzer würde sich bestimmt über ein Linkfixen freuen. Die wohl wenigen Ausnahmen können ja den Bot revertieren. Ich jedenfalls würde es schätzen, wenn die toten Links auf meiner Benutzerseite (sowie ggf. auch in meinen .js-Seiten) aktualisiert würden. --Leyo 22:38, 3. Sep. 2014 (CEST)Beantworten
Die sind aber nicht schematisiert, sondern sehr individuell. Und stundenlang Leuten hinterherzubasteln, die schon seit fühf Jahren nicht mehr aktiv sind, während die Portale auf die Wartung warten, ist wohl nicht Sinn der Sache.
Da sich übrigens kein Bot rührt, habe ich übrigens mal begonnen, ein gutes 1000 der CategoryIntersect-URL auf catscan2 umzuschreiben.
VG --PerfektesChaos 16:15, 12. Sep. 2014 (CEST)Beantworten

 Info: Es gibt auch noch über 2000 tools.wikimedia.de – dabei handelt es sich um eine funktionsidentische Weiterleitung auf toolserver.org aus der Frühphase.

Ich habe in einer kleinen Marathon-Schlacht 700 Seiten mit CategoryIntersect editiert und diesen, soweit in catscan2 konvertierbar, weitgehend abgearbeitet. Ein paar Portale und Redaktionen könnten noch übrig sein; der Rest sind Archive, LD, Disku und Benutzer. Insgesamt sind wohl um 2000 dieser URL unmittelbar gefixt worden; dazu etwas trivialer Beifang plus Syntaxfehler. Aus der Statistik sind eher 2500 URL verschwunden, weil die Seiten teils dreifach ineinander eingebunden sind.

Jetzt habe ich für eine Weile keine Lust mehr. --PerfektesChaos 13:24, 15. Sep. 2014 (CEST)Beantworten

Mittels Spezial:Suche/insource:/toolserver\.org/ findet man sogar noch Toolserver-Links im ANR … --Leyo 20:43, 23. Jan. 2015 (CET)Beantworten

Wikipedia:Artikel, die es in allen Wikipedias geben sollte/Erweitert aktualisieren

Im Rahmen eines Kurier-Artikels rückte die erweiterte Liste in den Fokus. Sie ist allerdings auf den Stand von September 2012, seitdem hat sich die ursprüngliche Meta-Liste sehr, sehr stark geändert, doch per Hand ist eine Aktualisierung der vielen Daten kaum zu schaffen.

  • Die Links müssten von Wikidata auf deutsche Wikipedia-Artikel umgestellt werden
  • man müsste die bereits in der veralteten Version vorhandenen Lesenswert-, Exzellent- und Gesprochen-Versionen-Bapperl aktualisieren
  • Bei Rotlinks müssten dann auch ein Interwiki-Link zum en-Artikel (alternativ: Wikidata-Eintrag) hinzugefügt werden.

Kann das ganze auch per Bot ausgeführt werden?--CG (Diskussion) 18:22, 1. Sep. 2014 (CEST)Beantworten

Bot für die Abarbeitung von Kategorie:Benutzer:Importartikel

Normalerweise werden Importartikel nach 3 Monaten Nichtbearbeitung gelöscht. Ich schlage daher, falls jemand daran Interesse hat, folgenden Bot vor (ich kann das leider nicht): Automatische Löschung von Importartikel, die drei Monate unbearbeitet sind und der Benutzer auch inaktiv. Automatische Benachrichtigung auf er Benutzerdisk (entfällt bei gesperrten Benutzern). Automatische Benachrichtigung auf der Benutzerdisk, falls der Importartikel drei Monate nicht bearbeitet wurde, der Benutzer aber aktiv ist. Siehe dazu auch die Diskussion auf meiner Disk unter Benutzer Diskussion:Informationswiedergutmachung#SLAs auf alte Importe. Es erspart Zeit, sinnlose Diskussionen und dürfte automatisierbar sein. MfG --Informationswiedergutmachung (Diskussion) 22:38, 2. Dez. 2014 (CET)Beantworten

Ich würde diese Angelegenheit federführend den Importeuren überlassen.
Auf Wikipedia:Importwünsche/Wartung wird eine detaillierte Auflistung generiert, wann welcher Artikelentwurf zuletzt bearbeitet wurde und von wem.
VG --PerfektesChaos 23:03, 2. Dez. 2014 (CET)Beantworten
Diese detaillierte Auflistung wurde zuletzt am 30. Januar 2014 aktualisiert (siehe Verson) und drin steht: Letzter Stand: Sonntag, 1. September 2013 16:20:18. Außerdem stimmt sie hinten und vorne nicht: es sind noch drei Artikel vom Mai 2011 nicht fertig übersetzt, siehe Kategorie:Benutzer:Importartikel 05 - 2011, viele haben gar kein Importdatum in der Tabelle. Ein Bot würde eher dazu führen, dass man diese Projektseite schnelltonnen kann. Ach ja: spaßigerweise steht da noch ein Importartikel von mir drin (angelegt unter meinem alten Benutzernamen: Benutzer:Jack User/Hoot Gibson. Hat sich auch schon längst erledigt. Fazit: ein Bot macht es schneller, besser und entlastet die Importeure vor unnützen Arbeit. Fragen wir mal Itti, was sie als Importeur von der Idee hält. Die Projektseite gibt es übrigens erst seit Januar 2013 und hat sich offensichltich nicht bewährt, immer noch offene Importartikel von 2011 und 2012 sind da gar nicht drin, wenn ich richtig gezählt habe knapp 60 Artikel. --Informationswiedergutmachung (Diskussion) 23:20, 2. Dez. 2014 (CET)Beantworten
Oh ja, das ganze lässt sich gut per Bot machen, nur müssen eine Menge Fakten beachtet werden. Ebenso auch das Ansprechen von Benutzern z.B. Das ist eine ganz interessante Idee, und ich als Importeur mach mich mit meinem Bot da ran. Das wird aber eine größere Sache. Also schauen wir mal, -- Doc Taxon @ Disc – BIBR23:26, 2. Dez. 2014 (CET)Beantworten
Schön zu sehen, wie sich eine Idee nach dem Wikiprinzip weiterentwickelt und durchsetzt. Vielen Dank posthum an Benutzerin:Lady Whistler, die hier viel Arbeit investierte. Frohes Schaffen — Boshomi ☕⌨☺00:30, 3. Dez. 2014 (CET)Beantworten

ein SmileysymbolVorlage:Smiley/Wartung/working  -- in Arbeit, -- Doc Taxon @ Disc – BIBR23:26, 2. Dez. 2014 (CET)Beantworten

@Doc Taxon: Danke, der Vorteil ist ja auch, dass die Benutzer mal an ihre Artikel erinnert werden. --Informationswiedergutmachung (Diskussion) 23:45, 2. Dez. 2014 (CET)Beantworten
@Informationswiedergutmachung:
Oh du mein Herzchen. Na klar, wenn da oben lang und breit erklärt ist, wie die Fachleute den Seiteninhalt aktualisieren, und dort als letztes Datum 2013 vermerkt ist, dann muss halt mal wieder jemand auf den Knopf drücken.
Jetzt mit 812 Einträgen und detaillierter Analyse aktualisiert.
@Doc Taxon: Die Wartungskat darf nicht leer sein; wurde irrtümlich aus der Vorlage herausgenommen – dann natürlich null Treffer.
VG --PerfektesChaos 00:36, 3. Dez. 2014 (CET)Beantworten
@PerfektesChaos: Ach, PerfektesHerzchen, und was spricht gegen eine Automatisierung des Löschens und auch eine automatische Nachricht? Die gibt es trotz der Fachherzchen nämlich nicht und wäre gar formidabel, wenn nicht gar famos. --Informationswiedergutmachung (Diskussion) 01:36, 3. Dez. 2014 (CET)Beantworten
Aber supa, das ein Fachmann mal den richtigen Knopf gedrückt hat. Auch wenn es nur ein Jahr gedauert hat. Oder so. --Informationswiedergutmachung (Diskussion) 01:37, 3. Dez. 2014 (CET)Beantworten
Praktisch wäre auch, wenn man als Knöpfeldrücker automatisch drauf aufmerksam gemacht wird, wenn ein neues Lemma, das identisch mit dem Importnamensartikel ist. Dann könnte man auch umgehend feststellen, dass bsp. Max Maven im Oktober 2014 angelegt wurde, aber im BNR bei einem inaktiven Benutzer Benutzer:Benji Wiebe/Baustelle/Max Maven fröhlich vor sich hinschimmelt. --Informationswiedergutmachung (Diskussion) 01:41, 3. Dez. 2014 (CET)Beantworten
eine Funktion dazu habe ich vor, in den Bot mit einzubauen. -- Doc Taxon @ Disc – BIBR07:30, 4. Dez. 2014 (CET)Beantworten


@Informationswiedergutmachung:

  • Die fragliche Wartungsseite blieb deshalb auf Stand Sommer 2013, weil die abarbeitende Importeurin im Sommer 2013 verstorben war und ihre Nachfolger sich hier bislang nicht einbrachten.
  • Ein Bot oder Admin, der automatisch Benutzerseiten löschen würde, wäre bald knopflos.
  • Die von dir verlangte Benutzerseitenlöschung wäre dann und nur dann möglich, wenn seit dem Import überhaupt kein oder nur ein Mini-Edit erfolgte. Genau dieser Sachverhalt wird auf der fraglichen Wartungsseite auseinandergefieselt.
  • Vor irgendwelchen Aktivitäten müssen die Benutzer auf ihren Diskus angesprochen werden, und es muss ihnen ausreichend Gelegenheit zur Stellungnahme (rund ein Monat) gegeben werden. Nur diese Ansprache könnte als botgestützte Massenpost erfolgen. Benutzer müssen auch nicht pausenlos aktiv sein.
  • Kam es erstmal durch den Wirt oder gelegentlich andere Benutzer zu nennenswerten Bearbeitungen, wurde gar der Artikel schon zur Hälfte übersetzt, dann ist überhaupt keine Löschung von Amts wegen mehr möglich.
  • Schwierig ist der Fall, wenn zum gleichen Thema und ggf. von jemand anderem übersetzt schon ein Artikel im ANR steht; dann muss für alle erarbeiteten Passagen überprüft werden, ob sie inhaltsreicher sind als die ANR-Version.
  • Die grundsätzliche Politik mit Benutzerseiten ist, dass diejenigen, die dem Ziel der Enzyklopädieerstellung dienen, auch im BNR verweilen dürfen; sie fressen keinerlei zusätzliche Ressourcen mehr als ohnehin schon angefallen.
  • Der Umgang mit den fraglichen Benutzerseiten bedarf der Einzelfallprüfung und eines vorsichtigen Umgangs mit den Autoren. Eine automatisierte Kahlschlagsanierung, wie sie dir vorschwebt, wird es nicht geben.

@Doc Taxon: CC

VG --PerfektesChaos 12:35, 5. Dez. 2014 (CET)Beantworten

Ja ja, das seh ich schon auch alles so. Ein Konzept dazu erarbeite ich gerade. -- Doc Taxon @ Disc – BIBR13:44, 5. Dez. 2014 (CET)Beantworten
Programmierung wird nach der AdminCon fortgesetzt werden, -- Doc Taxon (Diskussion) 16:51, 16. Feb. 2015 (CET)Beantworten
Wie ich schon erwähnt habe, ist der Code bereits fertig. Ich werde die Funktion den Importeuren noch zur Diskussion stellen, genauso wie die geplante Abschaltung von WP:IU. – Doc TaxonDiskussionWiki-MUCWikiliebe?! 00:56, 18. Okt. 2015 (CEST)Beantworten

Gebietsreform in portugiesischen Gemeinden

Hallo zusammen,

im September 2013 sind durch eine Gebietsreform rund 2000 Gemeinden (Freguesias) in Portugal verschwunden. Da die meisten Artikel zu diesen Gemeinden immer nach dem gleichen Schema erstellt wurden und aus nicht mehr als dem Einleitungssatz + Infobox bestehen, könnte man die Artikeländerung zu den Gemeindezusammenschlüssen in den meisten Fällen per Bot eintragen:
- hierzu müsste der Text angepasst werden (hierzu erstelle ich gerade eine Liste mit den zu ergänzenden Textstellen)
- die Navigationsleiste entfernt werden
- Kategorien in den Artikelquelltext eingetragen werden
- Infoboxparameter entfernt werden
- die Einwohnerzahlen direkt in den Artikelquelltext eingetragen werden.

Die Änderung sähe dann so aus: [2]. Die Liste den zu ändernden Artikel erstelle ich noch. Viele Grüße --Septembermorgen (Diskussion) 12:34, 21. Dez. 2014 (CET)Beantworten

Kann bitte jemand Lebenszeichen geben, ob es möglich ist oder nicht? Falls es nicht möglich ist, spar ich mir den Mehraufwand, der für eine Botliste nötig wäre. VG --Septembermorgen (Diskussion) 20:49, 7. Jan. 2015 (CET)Beantworten
Hier ist die Liste: Benutzer:Septembermorgen/Bottabelle/Gebietsreform Portugal, allerdings ungefiltert. Sie enthält alle Artikel, die geändert werden müssen, nicht nur diejeinigen, die per Bot geändert werden könnten. --Septembermorgen (Diskussion) 20:50, 12. Jan. 2015 (CET)Beantworten
Ich kann es mir mal anschauen.
  • Textergänzung: reicht es, die erste Überschrift zu suchen und diesen Text davor einzufügen? Was muss noch ersetzt werden?
  • Navileisten: muss ich Vorlage:NaviBlock beachten?
  • Kategorien: sind in jedem Artikel bereits Kategorien vorhanden?
  • Infoboxparameter: welche genau?
  • Einwohnerzahlen: reicht das substen von EWZ, EWD und EWR?
Gruß, IW20:56, 12. Jan. 2015 (CET)Beantworten
Hallo Inkowik,
Textergänzung müsste immer vor die erste Überschrift.
Folgende Textpassagen müssten geändert werden (z. B. in diesem hier: Santo André (Barreiro)):
  • Santo André ist eine Gemeinde“ durch „Santo André ist ein Ort und eine ehemalige Gemeinde
  • Zudem: „In ihr leben 11.485 Einwohner (Stand 30. Juni 2011).“ durch „Die Gemeinde hatte 11.485 Einwohner (Stand 30. Juni 2011).“
  • Vorlage:NaviBlock musst Du nicht beachten, falls vorhanden ändere ich die entsprechenden Artikel manuell. Die „Navigationsleiste Freguesias im Concelho XY“ müssten immer entfernt werden.
  • Kategorien sind in allen Artikeln enthalten, allerdings werden Kategorien aus der Infobox eingebunden, die direkt in den Artikelquelltext müssten und zwar Kategorie:Ort in ''Region XY''. Ebenfalls müsste die Kategorie:Ehemalige Freguesia in Porugal ergänzt werden.
  • Folgende Infoboxparameter müsstest Du entfernen: „Bürgermeister“ oder „Bürgermeisterin“ , „VerwaltungName“, „VerwaltungStraße“, „VerwaltungAdresse“, „VerwaltungOrt“ und „LAU“. Beim Infoboxparameter „Typ“ müsste immer nofreguesia ergänzt werden. Der Infoboxparameter „Gemeinde“ müsste ergänzt und ausgefüllt werden (die Spalte für die neuen Gemeinden ergänze ich noch in der Tabelle). „Gemeinde“ am besten immer an die Stelle von „LAU“
  • EWZ, EWD und EWR zu substen geht glaub ich nicht (d. h. ich war nicht erfolgreich damit). Bei Bedarf kann ich die Werte aber auch noch in der Tabelle ergänzen.
Viele Grüße --Septembermorgen (Diskussion) 21:45, 12. Jan. 2015 (CET)Beantworten

Ok, ich versuche mal, etwas dafür zu programmieren, wird aber wahrscheinlich erst ab dem Wochenende gehen. Eine Liste mit den Einwohnerzahlen, -daten und -quellen wäre gut. Gruß, IW14:29, 13. Jan. 2015 (CET)Beantworten

Bin die Liste nochmal durchgegangen: Bitte noch nicht loslegen, es gibt ein paar Änderungen, was die Botantrag betrifft. Muss mir aber erst eine Übersicht verschaffen, was genau sich ändert. --Septembermorgen (Diskussion) 23:04, 16. Jan. 2015 (CET)Beantworten
So, es gibt einen neuen Stand: Ich habe zwei Listen angelegt: Benutzer:Septembermorgen/Bottabelle/Gebietsreform Portugal und Benutzer:Septembermorgen/Bottabelle/Gebietsreform Portugal/Liste 2. Die erste, umfangreichere, enthält die Artikel in denen Infobox, Artikeltext, Navileisten und Kategorien geändert werden sollten, in der zweiten Liste entfallen die Änderungen im Artikeltext.
Folgende Änderungen müsste man durchführen:
In den Infoboxen (gilt für beide Listen):
  • Folgende Infoboxparameter müsstest Du entfernen: „Bürgermeister“ oder „Bürgermeisterin“ , „VerwaltungName“, „VerwaltungStraße“, „VerwaltungAdresse“ und „VerwaltungOrt“. Beim Infoboxparameter „Typ“ müsste immer nofreguesia ergänzt werden. Der Infoboxparameter „Gemeinde“ müsste ergänzt und ausgefüllt werden. Der Infoboxparameter „LAU“ wird nicht gelöscht, sondern geändert und erhält den LAU-Code der neuen aufnehmenden Gemeinde. „Gemeinde“ am besten immer an die Stelle oberhalb von „LAU“ ergänzen.
  • Kategorien: Die Kategorie:Ehemalige Freguesia in Portugal müsste ergänzt werden, der Rest bleibt (Kategorie:Ort in XY wird weiterhin automatisch eingebunden).
  • Navigationsleisten: Die „Navigationsleiste Freguesias im Concelho XY“ müsste entfernt werden.
Nur in den Artikeln der ersten Liste:
Wie oben: Textpassagen müssten geändert werden (z. B. in diesem hier: Santo André (Barreiro)):
  • Santo André ist eine Gemeinde“ durch „Santo André ist ein Ort und eine ehemalige Gemeinde
  • Zudem: „In ihr leben 11.485 Einwohner (Stand 30. Juni 2011).“ durch „Die Gemeinde hatte 11.485 Einwohner (Stand 30. Juni 2011).“. Bei die Textänderungen gibt's weitere Fälle. Die muss ich aber erst raussuchen und hier ergänzen.
  • Text aus der Tabelle müsste vor dem ersten Abschnitt eingefügt werden.
Viele Grüße --Septembermorgen (Diskussion) 21:51, 21. Jan. 2015 (CET)Beantworten
Hallo Septembermorgen, meine Zeitplanung sieht für die nächste Woche erst mal schlecht aus, ich behalte es aber im Hinterkopf. Gruß, IW21:32, 23. Jan. 2015 (CET)Beantworten

@Septembermorgen: Ich habe alles oben geforderte soweit implementiert, Testedits: 1, 2, 3, 4, 5. Ich würde dann im fertigen Lauf auch ein vollständiges Protokoll anlegen, was der Bot gemacht hat und was nicht, damit eventuelle Nacharbeiten einfacher werden. Vorher habe ich aber noch Fragen:

  • Soll die Einwohnerzahl formatiert ausgegeben werden (Tausendertrennpunkte) bei >=10000 ?
  • Was mache ich mit Metadaten zur Fläche Vorlage:FL etc., wie z.B. in Santiago Maior (Beja)?

Ansonsten schau nochmal bitte drüber. Momentan noch nicht implementiert ist, dass der Bot bei fehlenden Parametern LAU und Typ diese nachträgt (ist das überhaupt nötig?). Außerdem verlässt er sich derzeit darauf, dass es einen References-Abschnitt gibt und mindestens eine Kategorie vorhanden ist. Die Textersetzung funktioniert derzeit auch nur für die beiden Fälle, die du oben unterstrichen aufgezeigt hast. Gruß, IW18:00, 8. Feb. 2015 (CET)Beantworten

Hallo Inkowik, ich gehe die Liste gerade nochmal durch. Die Änderungen bislang sehen schon recht gut aus. Die Einwohnerzahlen sollten immer mit Tausendertrennpunkte ab >=10000 eingetragen werden. Die Fälle, in denen die Vorlage FL vorkommt, würde ich im Nachgang manuell ändern. References-Abschnitt ist überall vorhanden, ebenso mindestens eine Kategorie. Bei den Textersetzungen kommen noch ein paar weitere Varianten hinzu, trag ich nach, wenn ich die Liste durchgesehen habe. Der Parameter LAU ist immer vorhanden, beim Parameter Typ bin ich mir da nicht sicher (sollte aber vorhanden sein). Gruß --Septembermorgen (Diskussion) 23:06, 8. Feb. 2015 (CET)Beantworten

Hallo IW, Liste habe ich nochmal durchgesehen. Folgende Textersetzungsvarianten kommen noch hinzu:

  • ist eine Gemeinde freguesia --> ist ein Ort und eine ehemalige Gemeinde (Freguesia)
  • ist eine portugiesische Gemeinde --> ist ein portugiesischer Ort und eine ehemalige Gemeinde
  • ist eine Freguesia --> ist ein Ort und eine ehemalige Freguesia
  • ist eine Stadtgemeinde --> ist ein Ort und eine ehemalige Gemeinde
  • ist eine Gemeinde --> ist ein Ort und eine ehemalige Gemeinde (Freguesia)
  • , besitzt eine Fläche von -->. Die Gemeinde hatte eine Fläche von
  • , mit einer Fläche von -->. Die Gemeinde hatte eine Fläche von
  • }} km² und hat {{Metadaten Einwohnerzahl −−> |}} km² und Fließtext_Einwohnerzahl

Hier [3] müsste noch der Parameter VerwaltungName entfernt werden. Ansonsten könnte man starten, aber vielleicht erst mal mit 100 Änderugen. --Septembermorgen (Diskussion) 19:54, 13. Feb. 2015 (CET)Beantworten

Nur zur Kenntnis: ich habe das weiterhin auf dem Schirm, bin aber nächste Woche nicht da, einige letzte Kontrollen sind noch zu machen. Anfang März sollte es losgehen können. Gruß, IW14:36, 21. Feb. 2015 (CET)Beantworten
Hab jetzt doch noch einen Wunsch (sorry), sofern mit vertretbarem Aufwand umsetzbar. Die Kategorien Kategorie:Ort in der Provinz XY sollte doch direkt in den Artikelquelltext. Dass sie bei allen Artikeln mit der Infobox automatisch eingebunden wird, ist falsch. Alternativ könnte man sicher auch die Infobox entsprechend programmieren, transparenter ist es aber, wenn die Kategorie direkt im Artikelquelltext steht. --Septembermorgen (Diskussion) 23:16, 9. Mär. 2015 (CET)Beantworten

Eine SessionID hat IMO in Weblinks in Wikipedia-Artikeln nichts zu suchen. In einigen Fällen könnten diese gar als problematisch angesehen werden. Aktuell haben mehrere Tausend Artikel Weblinks mit einer SessionID. Ich schlage vor, bei denjenigen, die sich per Bot entfernen lassen, dies auch zu tun. Ein sehr häufiges Muster ist ;jsessionid= (Beispiel). Hat jemand die Möglichkeit solche Weblinks zu bereinigen? --Leyo 04:06, 17. Jan. 2015 (CET)Beantworten

Im Prinzip hast Du recht. Allerdings halte ich die Aufgabe für Bots ungeeignet (die Betreiber mögen mich da gerne korrigieren):
  • Die SessionID ist oft mitten im Weblink, nachfolgende Parameter werden noch benötigt und dürfen keinesfalls entfernt werden
  • Der Link wird ohne SessionID ungültig
  • Der Link ist sowieso tot (weil bspw. die SessionID verfallen ist) und wurde auf der Disku schon als defekt gemeldet, ein Entfernen der SessionID "heilt" ihn aber nicht
  • Falls er durch Entfernen der SessionID geheilt werden kann, müsste die Disku mitkorrigiert werden
  • Möglicherweise sind die Inhalte der Zielseite im Webarchiv gespeichert - aber unter der Adresse mit SessionID
Ich habe >>100 dieser Links händisch korrigiert und bin dabei so vorgegangen, dass ich für jede Domain, die Links mit SessionID verwendet, an 3-5 Fällen exemplarisch geprüft habe, ob die Links auch ohne SessionID funktionieren. Wenn ja, bin ich via Weblinksuche durch alle Links auf diese Domain gegangen und habe die SessionIDs entfernt.
Bestimmte Fälle sind ohnehin höchst zweifelhaft, z.B. Links auf den Beuth-Verlag, die hier auch für die SBL diskutiert werden oder Links auf angebliche Volltextversionen von Journals (Beispiel), die möglicherweise sowieso nicht frei zugänglich sind und besser durch den DOI bzw. PMID ersetzt werden würden.--Mabschaaf 16:04, 17. Jan. 2015 (CET)Beantworten
Die Fälle nach Domains oder Typen zu unterteilen, ist bestimmt keine schlecht Idee.
Hast du ein Beispiel, wo ein Weblink durch die Entfernung der SessionID ungültig wird? --Leyo 16:11, 17. Jan. 2015 (CET)Beantworten
In Arnsberg, EN 48, ist die SessionID unabdingbar, aber das ist ein Link aufs Webarchiv. In Nekrolog 1947 funktioniert der Link hinter Saint-Georges de Bouhélier (20. Dezember) ohne SessionID nicht.--Mabschaaf 17:05, 17. Jan. 2015 (CET)Beantworten
Bouhélier-Link funktioniert bei mir ohne sessionID, mit jedoch nicht. Auch der Arnsberg-Link ist ungeeignet, die Bedenken zu belegen. Der archive.org-Filter erlaubt im übrigen das mit sessionID archivierte Dokument anhand anderer Merkmale der URL zu finden.
SessionID-Links sind Links mit Zwangs-Referrer. Nach meiner Erfahrung mit der händischen Korrektur solcher Links sind die aufgeführten Bedenken dagegen relativ bedeutungslos. --Thoken (Diskussion) 18:39, 17. Jan. 2015 (CET)Beantworten
Nachtrag: beim Bouhélier-Link Javascript abschalten! --Thoken (Diskussion) 18:46, 17. Jan. 2015 (CET)Beantworten

Diese Links in County-Artikeln kann man eigentlich per Bot korrigieren (da hat sich der gesamte Weblink geändert). Ich hab schon ein paar korrigiert, aber als IP ist das sehr mühsam. 85.212.5.77 22:41, 18. Aug. 2015 (CEST)Beantworten

Weiterleitung mit gleicher Kat wie Ziel

Wäre es möglich, eine Liste zu erstellen mit allen Weiterleitungen, die eine Kategorie enthalten, die auch im Zielartikel enthalten ist? Als zusäztliche Schwierigkeit könnte ich mir als weiteres vorstellen, Weiterleitungen abzufragen, die eine Kategorie enthalten, die eine Ober- oder Unterkategorie einer Kategorie ist, die im Ziel enthalten ist. Aber eins nach dem anderen ;) 85.212.17.126 22:53, 21. Jan. 2015 (CET)Beantworten

Sicher ist das möglich. Nur müsste eine komplette Liste aus DB-Performancegründen in Teilabschnitten erstellt werden, weil sie so riesig ist. Wenn man die ersten hundert grob hochrechnet müsste die Gesamtliste irgendwo bei 35000-50000 Einträgen liegen. Aufgrund der ersten hundert Einträge sehe ich keine sinnvolle Verwendung bzgl. Wartung, weshalb ich mir ohne weitere Erklärung nicht die Mühe machen werde, die Liste komplett zu erstellen.
Hier die Query:
SELECT rp.page_title, p.page_title, cl.cl_to
 FROM  page rp
  INNER JOIN redirect ON rd_from=rp.page_id
  INNER JOIN page p ON rd_namespace=p.page_namespace AND rd_title=p.page_title
  INNER JOIN categorylinks rcl ON rp.page_id=rcl.cl_from
  INNER JOIN categorylinks cl ON p.page_id=cl.cl_from
 WHERE rp.page_namespace=0 AND rp.page_is_redirect=1
  AND rcl.cl_to=cl.cl_to;

Das Ergebnis ist dann voll von z.B.

Merlissimo 12:03, 27. Jan. 2015 (CET)Beantworten
Uff, das hatte ich nicht erwartet. Kannst du die Abfrage auf die Weiterleitungen reduzieren, die mindestens zwei Kategorien enthalten, die auch im Zielartikel enthalten sind? 85.212.17.126 20:10, 28. Jan. 2015 (CET)Beantworten

Einwohnerzahlen aktualisieren

Hallo Leute, gibt es die Möglichkeit, die Einwohnerzahlen von türkischen Provinzen durch ein Bot zu aktualisieren? Der Bot müsste aber auf das türk. Amt für Statistiken zugreifen und die Infos raussuchen. Geht sowas überhaupt? Schöne Grüße--KureCewlik81 Bewerte mich!!! 13:08, 22. Jan. 2015 (CET)Beantworten

Hallo KureCewlik81, Einwohnerzahlen werden normalerweise nicht per Bot aktualisiert, sondern über sogenannte Metadatenvorlagen automatische eingebunden. Solche Vorlagen gibt's zwar noch nicht für die Türkei, kann man aber erstellen. Interessant wären allerdings auch Einwohnerzahlen für türkische Gemeinden. Hast Du für die vielleicht einen Link? --Septembermorgen (Diskussion) 13:13, 23. Jan. 2015 (CET)Beantworten
das türkische statistikamt führt jedes jahr eine adressengebundene volkszählung durch, die bis auf die gemeindenebene und auch stadtbezirke und dörfer geht und auch zB zwischen männlichen und weiblichen anteil unterscheidet. wie kann man so eine metavorlage erstellen? die einzelnen daten erhellt man soweit ich weiß nur durch abfragen der datenbank. es gibt einen link zu den provinzeinwohner über die letzten knapp 10 jahre.--KureCewlik81 Bewerte mich!!! 13:38, 23. Jan. 2015 (CET)Beantworten
Um die Vorlage kann ich mich kümmern. Für die Provinzen ist das schonmal kein Problem, da habe ich die Zahlen gefunden. Beim türkischen Amt für Statistik habe ich auch gefunden, dass jedes jahr eine Adressengebundene Volkszählung bis runter zu den Dörfern durchgeführt wird, aber leider nicht die zugehörigen Zahlen. Die sind immer nur auf Provinzebene aggregiert. --Septembermorgen (Diskussion) 14:24, 23. Jan. 2015 (CET)Beantworten
Das wichtigste wäre erst mal die einwohnerzahlen der provinzen und der kreisstädte aktuell zu halten. dafür könnte man die gleiche datenbank nehmen, denn bei abfrage der einwohnerzahl der kreisstädte werden auch die gesamteinwohner des kreises (hauptort+außerhalb des hauptortes) und die summe aller einwohner der provinz angegeben. bei 81 provinzen und hunderten kreisstädte wäre es eine enorme erleichterung. einige provinzen sind zB immer noch auf den stand von vor vier oder fünf oder mehr jahren.--KureCewlik81 Bewerte mich!!! 16:27, 23. Jan. 2015 (CET)Beantworten
Kannst Du mir bitte genau beschreiben (verlinken falls möglich) wie ich auf die Tabelle mit den Einwohnerzahlen für die Kreisstädte komme? Die Einwohnerzahlen für die Provinzen habe ich zwar gefunden, nicht aber die für die Kreisstädte. Gruß --Septembermorgen (Diskussion) 10:19, 24. Jan. 2015 (CET)Beantworten
Geh auf diesen Link und gebe nacheinander folgendes ein: Das Jahr 2014 -> yerlesim yeri nüfuslari->ilce nüfuslari->dann gewünschte provinz anwählen->tüm ilceler->dann ganz rechts unten in der ecke raporu olustur anwählen. da kannst es auch als exceldatei ausgeben, aber man müsste es für alle 81 provinzen einzeln machen. hilft dir das weiter?--KureCewlik81 Bewerte mich!!! 21:07, 28. Jan. 2015 (CET)Beantworten
OK, danke. Ich komm wahrscheinlich am Wochenende dazu, die Vorlage zu erstellen. Einbinden in die Artikel wird aber etwas länger dauern. --Septembermorgen (Diskussion) 21:40, 29. Jan. 2015 (CET)Beantworten
Sorry, wird jetzt doch etwas länger dauern. Viele Grüße --Septembermorgen (Diskussion) 23:07, 8. Feb. 2015 (CET)Beantworten

@Septembermorgen: und hast du mittlerweile etwas gefunden? mfg--KureCewlik81 Bewerte mich!!! 23:23, 2. Jun. 2015 (CEST)Beantworten

Die Regeln zur Verlinkung mit EUR-Lex haben sich verändert. Für die neuen Regel siehe z.B. das FAQ zur Verlinkung oder generell die Hilfe bei EUR-LEX. Es gibt Vorlagen zur Verlinkung von EUR-Lex ({{EG-RL}}, {{EU-Verordnung}} und {{EUR-Lex-Rechtsakt}}), die ich angepasst habe. Aber es gibt noch knapp 3200 Weblinks in Wikipedia, die das alte Format verwenden (Weblinks). Von daher habe noch eine neue Vorlage {{CELEX}} erstellt, die als Basis für die beiden ersten dient, aber auch für die anderen Rechtsakte ausser Richtlinien und Verordnungen verwendet werden kann, sofern sie eine CELEX-Nummer haben. Damit sollte es per Bot möglich sein, die veralteten Links durch die Vorlagen zu ersetzen.

Folgende Möglichkeiten sehe ich:

  • Alle URLs der Form [http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=CELEX:<celex-nummer>:<sprache>:<format> <text>] nach {{CELEX|<celex-nummer>|<text>|sprache=<sprache>}} wandeln. Das Format braucht es dort nicht, es wird aktuell nur HTML und NOT verwendet, wobei NOT den Übersichtstab auswählt, das könnte man m.E. weglassen (wenn gewünscht gibt es dafür den Parameter tab bei {{CELEX}}).
  • Alle URLs der Form [http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=CONSLEG:<celex-nummer>:<konsolidierungsdatum>:<sprache>:<format> <text>] nach {{CELEX|<celex-nummer>|<text>|<konsolidierungsdatum>|format=<format>|sprache=<sprache>}} wandeln
  • Alle URLs der Form [http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:<reihe>:<jahr>:<amtsblattnummer>:<anfangsseite>:<endseite>:<sprache>:<format> <text>] nach {{EUR-Lex-Rechtsakt|reihe=<reihe>|jahr=<jahr>|amtsblattnummer=<amtsblattnummer>|anfangsseite=<anfangsseite>|endseite=<endseite>|format=<format>|sprache=<sprache>|titel=<text>}} wandeln (wobei man Defaultwerte weglassen kann)

Als "Kür" könnte man auch versuchen, die {{CELEX}}-Links, wo sinnvoll/fachlich richtig in Verwendungen der Vorlagen {{EG-RL}} und {{EU-Verordnung}} umzuwandeln. Die Umwandlung von {{EUR-Lex-Rechtsakt}} in Verwendungen der Vorlagen {{CELEX}}, {{EG-RL}} oder {{EU-Verordnung}} dürfte noch einmal deutlich aufwändiger sein, weil man da die EUR-Lex-Suche nutzen muss, um den Amtsblatt-Verweis in eine CELEX-, Richtlinien- oder Vorlagen-Nummer umzusetzen.

Danke und Gruss, --S.K. (Diskussion) 12:27, 14. Feb. 2015 (CET)Beantworten

Eine weitere Idee wäre, zumindest zu den Richtlinien/Vorlagen Wikidata-Items anzulegen/ergänzen. Dann könnte man die entsprechenden Vorlagen aufgrund der Wikidata-Items mit Werten versorgen. --S.K. (Diskussion) 16:04, 21. Feb. 2015 (CET)Beantworten
gudn tach!
das thema hatten wir uebrigens schon mal: Wikipedia:Fragen_zur_Wikipedia/Archiv/2014/Woche_19#Mehrere Hundert Weblinks auf EUR-Lex defekt -- seth 12:12, 23. Feb. 2015 (CET)Beantworten
Okay, wobei damals "nur" die ganz alte Linkform in die neuere umgewandelt wurde. Da wäre eine Verwendung der Vorlagen m.E. "nachhaltiger", da bei EUR-Lex wohl immer mal wieder am URL-Format "gebastelt" wird... --S.K. (Diskussion) 21:03, 24. Feb. 2015 (CET)Beantworten

Hallo, wäre gut wenn ein Bot jedesmal wenn ein neuer Link ins Nicht-Wikimedia-Web gemacht wird, diesen bei archive.org einreicht, damit, wenn die gelinkte Seite gelöscht wird, noch eine Kopie da ist. --Distelfinck (Diskussion) 20:14, 22. Feb. 2015 (CET)Beantworten

Erscheint mir sinnvoll. Möglicherweise könnte das Benutzer:Lustiger_seth mit seinem Camelbot umsetzen, daher angepingt.--Mabschaaf 11:22, 23. Feb. 2015 (CET)Beantworten
gudn tach!
wie kann man das was "einreichen"? ich dachte, das sei nicht moeglich, vgl. https://archive.org/about/faqs.php#1. -- seth 11:51, 23. Feb. 2015 (CET)Beantworten
Jepp, dat is uch meen Stand. -- Doc Taxon (Diskussion) 02:18, 24. Feb. 2015 (CET)Beantworten
Auf https://archive.org/web/ ist ein Formular (betitelt Save Page Now), da geht es. Gibt es einen Stream von neuen URLs in der Wikipedia, oder ähnliches? Am besten mit zugehöriger Diff-Nummer, um Spam besser auszufiltern? Dann könnten wir die URLs bei archive.org und ähnlichen Diensten einreichen. --Distelfinck (Diskussion) 04:06, 26. Feb. 2015 (CET)Beantworten
gudn tach!
mittlerweile wurde ich darueber informiert, dass es https://wayback.archive.org/save/$url gibt und ausserdem auch http://www.webcitation.org/archive?email=$eMailAddress&source=$wpPage&url=$encodedURL. letztere ignorieren angeblich sogar robots.txt.
zu deiner frage: so ein stream ist mir nicht bekannt; gibt's evtl. per irc. (aber irc war mir zu unstabil, weshalb ich mit CamelBot mittlerweile auf der db-replica des toolservers haenge.) die diffs holt sich CamelBot per api.php. daraus koennte er auch die externen links fischen und https://wayback.archive.org/save/ damit fuettern. oder gibt's mittlerweile einen bot, der das macht? -- seth 23:09, 7. Mär. 2015 (CET)Beantworten

@Lustiger seth: Wie ist hier der Stand? Ein anderer Bot der das macht ist mir unbekannt. Viele Grüße, Luke081515 20:29, 8. Okt. 2015 (CEST)Beantworten

gudn tach!
hab noch nix weiter zu diesem request gemacht; koennte camelBot entsprechend erweitern. weiss nur noch nicht, wann ich zeit dafuer habe. entweder morgen oder in zwei wochen. -- seth 20:31, 11. Okt. 2015 (CEST)Beantworten
gudn tach!
hmmpf, eine erkaeltung zog mir einen strich durch die rechnung. jetzt werde ich vermutlich erstmal einen monat lang keine zeit haben. -- seth 00:15, 26. Okt. 2015 (CET)Beantworten
siehe auch Wikipedia:Fragen_zur_Wikipedia#Defekte_Weblinks.
script laeuft jetzt. hab uebrigens archive.org angeschrieben und auch schon antwort bekommen, dass keine andere moeglichkeit als diese save-geschichte vorgesehen ist. allerdings koennen die uns auch aktiv crawlen. hab geschrieben, dass ich das gut faend. CamelBot hat jetzt alle links der externallinks-tabelle ab el_id==40M an archive.org geschickt und haengt jetzt auf den RCs. demnaechst werde ich noch einen zusatzlichen prozess starten, der sich dann um die kleineren IDs kuemmert. das sind rund 10M externe links, wird also bis etwa ende 2016 dauern. dann waeren aber alle links ein mal an archive.org gesendet. aber: viele requests werden schon allein deshalb abgelehnt, weil die entsprechende robots.txt das archivieren verbietet. webcitation.org muesste ich mal noch anschreiben. -- seth 22:37, 23. Nov. 2015 (CET)Beantworten
Von den ca 619K URL (mit Duplikaten) bzw 554K (unique) die derzeit der Giftbot als tot identifiziert hat wurden bei 412K Links (mit Dupl.)bzw 365K unique ein Link auf das Internet Archive gefunden. Vielleicht kann dir Giftpflanze eine Liste aller erreichbaren Links übermitteln, wo es noch keine Archiv angelegt gefunden wurde. Das sollte die Zahl der notwendigen Uploads drastisch reduzieren, mit dem Vorteil, dass man dann viel schneller alle notwendigen URLs hochgeladen hat. Frohes Schaffen — Boshomi ☕⌨☺ Defekte URLs - Hilfe gesucht23:08, 23. Nov. 2015 (CET)Beantworten
gudn tach!
hab gestern das script gestartet, es nudelt ca. 15 links/min durch. bei 10M wuerde es also fast 2a dauern, bis die alten links gemeldet wurden (bisher nur an archive.org). insofern koennte eine stark reduzierte liste sinnvoll sein. -- seth 08:32, 25. Nov. 2015 (CET)Beantworten
  • Ich habe auch nur die Liste der Links, die funktionieren, nach einem Archivzeitstempel habe ich da natürlich gar nicht gesucht. Das würde noch einmal ein paar Tage dauern, schätze ich. Du kannst aber auch diese Liste direkt haben (5584413 Links). – Giftpflanze 15:35, 25. Nov. 2015 (CET)Beantworten
  • Eine Vorabprüfung auf https://web.archive.org/web/$URL auf http-status könnte Sinn manchen. Der Header gibt zusätzlich auch noch X-Archive-Wayback-Runtime-Error aus. Steht dort "was not found" dann sollte man die Original-URL jedenfalls hochladen, Bei http_status 200 kann man sich ein Upload sparen. Bei robots.txt im X-Archive-Wayback-Runtime-Error macht ein Upload auch keinen Sinn
  • Die Liste, mit den 554K URL, die mir Giftplanze auf meine Disk gepostet hat, sollte man beim Upload auch ignorieren, da würden nur Fehlermeldungsseiten hochgeladen, oder man läuft ständig in ein Timeout.
  • archive.org hat grundsätzlich Leistungsstarke Server (30gb/sek), erlaubt aber nur eine beschränkte Anzahl von gleichzeitigen Threads pro User. Pipelining bietet da eine Möglichkeit das Ganze ein wenig zu beschleunigen http://curl.haxx.se/dev/readme-pipelining.html
  • btw libcurl ist ein mächtiges Werkzeug, mit dem man mit enormer hoher Geschwindigkeit sehr viele Server parallel abfragen kann. Vermeide viele parallele Abfragen auf den gleichen Server, die Gefahr geblockt zu werden ist groß.
happy upload. :-)  Frohes Schaffen — Boshomi ☕⌨☺ Defekte URLs - Hilfe gesucht23:12, 25. Nov. 2015 (CET)Beantworten
gudn tach!
@Giftpflanze: wenn du die liste z.b. auf dem labs-server in irgendeiner form (plaintext, db, sonstwas, egal) bereitstellen koenntest, waer das vermutlich hilfreich, wuerde mir ja immerhin ca. 50% an umfang sparen. was meinst du mit "archivzeitstempel"?
@Boshomi: ja, vorabpruefung waere sinnvoll. ich dachte auch schon daran, parallel zu pruefen ob die urls ueberhaupt erreichbar sind und ggf. selbst die robots.txt auszuwerten. das mit dem X-Archive-Wayback-Runtime-Error klingt auch gut, muesste ich mal schauen, wie viel zeit das spart.
meine frage, was die maximale anzahl von requests ist -- bzw. die abgeschwaechte form: ob <100 requests/min ok sind --, wollte archive.org mir, so wie ich deren antwort verstehe, nicht beantworten.
http-pipelining klingt auch interessant, kannte ich noch nicht. hab auch ein perl-modul gefunden, dass das evtl. kann (HTTP::Async). jetzt braeuchte ich nur noch zeit, das alles mal auszuprobieren, was ich evtl. im dezember wieder habe. derweil ist mein vorgestern angeschubstes script schon bei aeh *huestel* 64k, hui. -- seth 00:39, 26. Nov. 2015 (CET)Beantworten
Auf dewiki.labsdb/s51072__dwl_p: select url from pass1_201511 where broken is false; – Giftpflanze 09:15, 26. Nov. 2015 (CET)Beantworten
Eine stabile Zahl auf die maximalen Requests auf Internet Archive wüsste ich auch gerne. btw. Ich kenne mich mit Perl nicht so gut aus, aber ev. hilft Net::curl; libcurl hat Mulitperform ja direkt eingebaut. Wenn die Perl-Bibliothek ohne Überraschungen ein direkter Wrapper auf libcurl ist, dann sollte die Hilfe auf haxx.se sowie stackoverflow.com ausreichend Hilfe bieten. Recht nützlich könnte sein, wenn du im User-Agent-String jeweils eine passende URL auf eine dewiki Metaseite oder gleich den jeweils passenden Artikel angibst. Das erleichtert die Arbeit der Sysops auf der anderen Seite erheblich, und könnte zu größeren Limits führen. Frohes Schaffen — Boshomi ☕⌨☺ Defekte URLs - Hilfe gesucht20:55, 26. Nov. 2015 (CET)Beantworten
https://web.archive.org/save/<url> macht es, wenn robots.txt es nicht für die Seite unterbunden haben möchte. --Hans Haase (有问题吗) 02:36, 5. Dez. 2015 (CET)Beantworten

Wiedergänger suchen

Zuerst der Anlassfall: Vorgestern bemerkte ich zufällig, dass der 2007 nach regulärer LD gelöschte Artikel Gottfried von Bismarck Ende 2013 als Wiedergänger angelegt wurde - in formal gutem Zustand und unbemerkt, aber ohne jeden neuen Relevanzbeleg. Mein neuerlicher LA führte demnach zur Schnelllöschung als Wiedergänger. Ich nehme an, dass es gar nicht so wenige solche Fälle gibt - eine Suche könnte hilfreich sein. Demnach bitte ich um eine Botsuche nach folgenden Artikeln:

  1. Bei einer regulären LD wurde auf "gelöscht" entschieden.
  2. Der Artikel ist wieder da.
  3. Es gab keine neuerliche LD oder LP, in der auf Behalten entschieden worden wäre.

Die LD-Suche müsste intelligent genug sein, um verschiedene Wortlaute für Löschentscheidungen zu erkennen. Die Ergebnisse wären in einer zweispaltigen Tabelle (Artikel, Löschdiskussion(en)) aufzulisten in einer Unterseite meines BNR, Benutzer:KnightMove/Wiedergängersuche, zur manuellen Überprüfung (natürlich werden viele solcher neu angelegten Artikel - wegen gestiegener oder besser herausgearbeiteter Relevanz - völlig legitim sein). --KnightMove (Diskussion) 09:58, 27. Feb. 2015 (CET)Beantworten

Kann ein manuell gefundener zweiter Erfolgsfall als Argument für die Sinnhaftigkeit des Bots dienen? --KnightMove (Diskussion) 15:19, 9. Mär. 2015 (CET)Beantworten
Früher hat das wohl Abbottbot gemacht: Benutzer:Abbottbot/Wiedergänger --Schnark 09:33, 10. Mär. 2015 (CET)Beantworten
Hallo, ich wurde von KnightMove hierauf verwiesen. Die Gründe, warum der Abbottbot seine Arbeit eingestellt hat, sind ziemlich einfach: Ursprünglich hat er auf einem veralteten Framework basiert und mit irgendeiner Umstellung der MediaWiki-Software hat er dann nicht mehr funktioniert. Zu dem Zeitpunkt hatte ich allerdings keine Zeit und Lust, da hier ein großer Arbeitsaufwand nötig gewesen wäre, bis der Bot wieder zuverlässig funktioniert hätte. Grundlage für die Markierung als Wiedergänger war eine Datenbank, die alle Löschdiskussionen erhielt und dafür entwickelt wurde, wiederholte Löschdiskussionen in der LD zu markieren. Diese Aufgabe hat damals dann der FzBot von Filzstift übernommen. Ich weiß nicht genau, wie er funktioniert, nehme aber an, dass auch er die Löschdiskussionen in einer Datenbank indiziert. Damit läge also eine Datenbank vor, mit der die Ermittlung von potentiellen Wiedergängern sehr einfach ist. Filzstift, vielleicht kannst Du hier kurz was zu sagen? Grüße, Yellowcard (D.) 08:44, 11. Mär. 2015 (CET)Beantworten
Hallo, ja, ich habe den alten Bot so ca. Dezember 2014 abgestellt, da er für mich unwartbar wurde (benötigt eien DB und war nicht modular). Der Bot wird gerade neu geschrieben, nur bin ich zeitlich etwas angespannt, und im Moment ist meine Motivation nicht gross. Mein neuer Ansatz ist der Verzicht auf eine Datenbank (was für mich stets ein "Klotz am Bein" war). Viel mehr soll über die "WhatsLinksThere"-Funktion nach alten Löschdiskussionen gesucht werden. Im Prinzip funktioniert das schon, doch es sind noch viele Bugs zu beheben. Wann es fertig ist: Wenn es fertig ist. Sollte sich aber schon um Monate, nicht Jahr handeln. Wenn ich dann Zeit und Lust habe, könnte ich auch die von dir gewünschte Funktion mit implementieren, allerdings erst dann, wenn der modular aufgebaute Bot die Hauptaufgaben erfüllt und läuft. --Filzstift  19:40, 19. Mär. 2015 (CET)Beantworten
Wenn ich es richtig verstehe, ist die wenig formalisierte Erledigung von LAs zentraler Klotz am Bein einer bot-erfassbaren Wiedergänger-Auswertung. Beispielsweise wird ja immer mal wieder irgendein Artikel im Verlauf der LD als Beispiel für wasauchimmer verwikilinkt, ohne daß je ein LA bestanden hätte. Wäre es zumindest für die Zukunft hilfreich, einen standardisierten Baustein zu entwickeln, den die abarbeitenden Admins setzen? Die Population, die sich umgewöhnen müsste ist übersehbar, technisch versiert und vielleicht kann man im Baustein ja auch per CSS versteckte Arbeitshilfen wie etwas einen direkten Link zum Löschen einbauen. Anhand einer solchen eindeutigen Entscheidung könnte der Bot dann zum Beispiel auf der Disk behaltener Artikel den entsprechenden Hinweis setzen. In welcher Weise man mit den Altlasten umgeht, löst dieser Vorschlag natürlich nicht, aber da Relevanz sich ja oft fortentwickelt, sind ältere Wiedergänger ja auch weniger problematisch. Prima wäre natürlich auch dafür eine Lösung zu finden, die aber möglicherweise dadurch, daß es sich dann um eine finite Menge an Altdaten handeln würde, auch dieser sekundäre Aspekt handhabbarer wird. Nur mal so als Denkanstoß… --Eloquenzministerium (Diskussion) 22:57, 31. Mär. 2015 (CEST)Beantworten

Hinweise in Artikeldiskussionen auf erledigte Redundanzdiskussionen

Ich fände einen Hinweis in Artikeldiskussionen hilfreich, dass eine beendete Redundanzdiskussion stattgefunden hat. Das würde das stellen neuer Redundanzdiskussionen vermeiden, wenn kein Baustein mehr im Artikel vorhanden ist.

Ich stelle mir das ähnlich wie bei den vergangenen Löschanträgen vor. Beispielsweise in der Form "Die Redundanz das Artikels ARTIKEL_1 mit den Artikeln ARTIKEL_2 ARTIKEL_3 wurde am DATUM diskutiert." Wenn es mehrere Redundandanzdiskusssionen gab setzt der Bot mehrere Bausteine mit Verweis auf mehrere Diskussionen. Anders als bei den Löschanträgen ist das Ergebnis einer Redundanzdiskussion meist nicht automatisiert auszuwerten, daher würde ich das weglassen. Fehlt einer der verlinkten Artikel mittlerweile gibt es halt einen Rotlink - dann sieht man das auch direkt. --Zulu55 (Diskussion) Unwissen 16:17, 23. Mär. 2015 (CET)Beantworten

@Zulu55: Ich bin gerade dabei diese Funktion zu programmieren, wird jedoch noch einige Zeit in Anspruch nehmen. Als Nebeneffekt könnte mit der dabei entstehenden Datenbank eventuell auch die Anfrage bezüglich der Knacknüsse (Wikipedia:Bots/Anfragen#Wikipedia:Redundanz.2FKnackn.C3.BCsse_-_per_Bot_erstellte_Liste) bearbeitet werden. Gruß -- Jogo.obb (Diskussion) 19:28, 20. Sep. 2015 (CEST)Beantworten
Super, finde ich toll. Umgekher könnte der Bot natürlich auch schauen, welche Redundanzdiskussionen nicht als erledigt markiert wurden, und im Artikel der Hinweis auf die noch laufende Redundanzdiskussion fehlt. Das kommt ja immer wieder mal vor. Diesen Baustein könnte er dann nachtragen. --Zulu55 (Diskussion) Unwissen 08:25, 21. Sep. 2015 (CEST)Beantworten

 Info: Derzeit läuft der Antrag auf ein Botflag für JogoBot Gruß--Jogo.obb (Diskussion) 16:25, 21. Okt. 2015 (CEST)Beantworten

Der Wiktionary-Weblink von BKS könnte auf die, in der BKS verlinkten Artikel übertragen werden. Beispiel: den Wiktionary-Weblink von dem Artikel Götterdämmerung auf den Artikel Ragnarök übertragen. Ausgenommen sollten meiner Meinung nach Artikel, welche ein "#" im Link in der BKS enthalten (siehe Götterdämmerung). --Impériale (Diskussion) 17:54, 1. Apr. 2015 (CEST)Beantworten

Kategorie-Umsortierungen per Bot

Um die Kategorie:Wikipedia:Sportler nach Staat (überarbeiten) zweckmäßig abarbeiten zu können, müsste ein Bot großflächig Umsortierungen vornehmen: Alle Kategorien und Artikel der zweiten Ebene unter Kategorie:Wikipedia:Sportler nach Staat (überarbeiten) (also z. B. die Kategorie:Leichtathlet (Mexiko) oder der Artikel Muchran Wachtangadse) sollen auf die erste Ebene (sprich, z. B. Kategorie:Leichtathlet (Mexiko) soll direkt in Kategorie:Wikipedia:Sportler nach Staat (überarbeiten) einsortiert werden), und die Kategorien der ersten Ebene (z. B. Kategorie:Sportler (Mexiko)) sollen aus der Kategorie:Wikipedia:Sportler nach Staat (überarbeiten) raus. Das würde es ermöglichen, erledigte Kategorien einfach aus der Wartungskat entfernen zu können, anstatt warten zu müssen, bis der ganze zugehörige Staatsast erledigt ist. 79.217.150.153 17:21, 29. Apr. 2015 (CEST)Beantworten

Das müsste im Wikipedia:WikiProjekt Kategorien besprochen werden. Danach kann man das ganze hier durch einen Bot ausführen lassen. Gruß, Luke081515 20:18, 29. Apr. 2015 (CEST)Beantworten
Meinst du nicht, dass ich WP:~ kenne? Allerdings wäre es doch ziemlich umständlich, alle Kategorien einzeln dort einzutragen, das geht doch bestimmt einfacher. Ich werde das sicher nicht irgendwo diskutieren. Es ist offensichtlich, dass die Umsortierung die Abarbeitung begünstigen würde. 79.217.150.153 21:52, 29. Apr. 2015 (CEST)Beantworten
Kann man bestimmt lösen, nur nach welchem System möchtest du die verschieben? Ohne Logik kommt ein Bot selten weiter.... Gruß, Luke081515 22:13, 29. Apr. 2015 (CEST)Beantworten
Hab ich doch ausführlich beschrieben! Was verstehst du denn nicht? 79.217.150.153 22:39, 29. Apr. 2015 (CEST)Beantworten
Also du möchtest alle Artikel in die erste Ebene, verstehe ich das richtig? Kann man sicher machen, aber das ist eine sehr einschneidene Änderung, sollte ich das machen, hätte ich da vorher gerne einen Konsens darüber. Was allerdings nicht heißt, das es nicht ein anderer Botbetreiber übernehmen kann (ich möchte hier nur für mich sprechen nicht für andere). Gruß, Luke081515 10:04, 30. Apr. 2015 (CEST)Beantworten
Nein, das möchte ich eben nicht. Also nochmal: Ich möchte alle Kategorien und Artikel, die derzeit in der zweiten Ebene stehen, in der ersten Ebene haben. Die Anzahl der betroffenen Artikel ist allerdings minimal: In Kategorie:Sportler (Deutschland) sind das 28 Artikel, in vielen anderen Kategorien maximal fünf, und in vielen Verbandskategorien sind gar keine Artikel betroffen. D.h. die Änderung betrifft im Wesentlichen Kategorien, und die werden sowieso regelmäßig wartungsmäßig bearbeitet, da sind die Botedits irrelevant und wiegen den Nutzen mehr als auf. 79.217.157.14 11:09, 30. Apr. 2015 (CEST)Beantworten
Kann den Antrag mal bitte jemand umsetzen? Die Wartungskategorien arbeiten sich nicht von selbst ab. 85.212.3.122 00:33, 6. Mai 2015 (CEST)Beantworten
Kannst Du mir vielleicht bitte kurz erläutern, was das Ziel dieser Wertungsaktion ist? Beim Lesen Deines Antrags hatte ich gehofft, dass man sich ein bisschen in Richtung einer Facettenklassifikation zu bewegen versucht (unglaublich!). Aber aus der Disk., die Du in der Wartungsakat. verlinkt hast ([4]), kann ich das nicht so richtig herauslesen. Um beim Beispiel Mexiko zu bleiben: Welche Kat. soll Adriana Fernández nach der Umstellung haben?--Cactus26 (Diskussion) 10:00, 7. Mai 2015 (CEST)Beantworten
Adriana Fernández ist bereits völlig ok, da würde gar nichts passieren, auch nicht bei diesem Bot-Antrag hier. Das Ziel ist, Staatsangehörigkeit und Tätigkeit zu entkoppeln. Siehe auch diese aktuelle Diskussion. Bei den Sportlern war es so, dass früher z. B. Kategorie:Sportler (Mexiko) unter Kategorie:Mexikaner hing, was zu zahlreichen Falschzuordnungen geführt hat. Seitdem diese Zuordnung entfernt wurde, fehlen bei vielen Sportlern die Staatsangehörigkeitskategorien. 85.212.36.116 21:10, 7. Mai 2015 (CEST)Beantworten
Danke für Deine Mühe, mir das zu erklären. Ich denke, ich habe das Problem jetzt erkannt. Auf den ersten Blick ist erstaunlich., warum die Interpretation von "Mexiko" in "Kategorie:Gewichtheber (Mexiko)" als Staatsbürgerschaft ein Problem sein könnte... Wäre sie auch nicht, wären da nicht Unterkategorien, die das "Sport (Land)" anders deuten. Am Beispiel Lionel Messi erkennt man, wo das liegt. Dieser würde Kategorie:Fußballspieler (FC Barcelona) und Kategorie:Fußballspieler (Spanien) zum Spanier. Die Vereinskategorien sind also das Problem (vielleicht gibt es weitere). Nun versucht ihr, das Problem zu lösen, indem ihr das "Mexiko" in "Kategorie:Gewichtheber (Mexiko)" umdeutet als "war sportlich aktiv in" (als "Spezialisierung" von "hat(te) seinen Tätigigkeitschwerpunkt in").
Ich bin ehrlich: Ich halte das für chancenlos. Wenn man sich z.-B. Michael Stockton ansieht. Bei diesem fehlt "Basketnballspieler (Deutschland)". Mag sein, dass Du bei Deiner Umstellung daran denken würdest. Aber jemand, der nicht hauptberuflich Sportler-Artikel anlegt, denkt daran niemals und kommt nicht auf die Idee, das "Vereinigte Staaten" könnte was anderes meinen als Staatsbürgerschaft.
Ich muss weiterhin zugeben, dass ich des gesamte Kategoriessystem für kaum noch zu retten halte. Der hauptsächliche Fehler ist, dass es selbstverständlich ist, Schnittmengenkategorien völlig unabhängiger Eigenschaften zu bilden (Sportart x Land/Region). Dass bei einer präkombinierter Systematik der Pflegeaufwand des Kategoriekatalogs explodiert und nicht mehr bewältigbar wird, wird leider von zu wenigen erkannt (wenn Du Lust hast, ich habe mich mal mit dem Thema versucht zu befassen: [5]).
Ein weiteres großes (und zum Teil aus der Schnittbildung resultierendes) Problem ist, dass der Kategoriebezeichner nicht erklärt, was er eigentlich meint (so wie das "Mexiko" in den Sportartenkategorien).
Ein Schritt in die richtige Richtung wäre mMn an dieser Stelle ein etwas weitergehender Ansatz:
  • die Verschneidung Sportart x Land wird grundsätzlich entfernt
  • statt dessen wird eine neue "Assoziationskategorie" "hat(te) seinen Tätigkeitsschwerpunkt in <Land>" unter allen Ländern ergänzt (die für andere Dinge wie Sport später auch genutzt werden kann)
  • jedem Sportler wird eine (oder mehrere) "reinrassige" Sportartenkategorie und eine oder mehrere Kategorie für "Tätigkeitsschwerpunkt in <Land>" ergänzt
  • zudem (in Übereinstimmung mit dem geplanten Vorgehen) bekommt jeder Sportler direkt die Staatsbürgerschaft-Kategorie (auch hier mehrere möglich)
Ich vermute, dieses Spontankonzept berücksichtig noch nicht alles, auch sind aussagekräftige Kategoriebezeichner sicher "sperrig" (wobei da technische Möglichkeiten bestünden, das zu verbessern).
Es tut mir leid, ich tue mich ein wenig schwer in Botaufträge zu investieren, hinter deren Ergebnissen ich nicht stehe.--Cactus26 (Diskussion) 11:27, 9. Mai 2015 (CEST)Beantworten
Kategorie:Sportler nach Land ist eigentlich in dieser Form überflüssig, ja. Es genügt Kategorie:Sportler nach Verband und Kategorie:Sportler nach Verein, wobei man die Vereinskategorien natürlich räumlich sortieren kann. Ist halt noch ein Relikt aus der Frühzeit. Nichtsdestotrotz wird eine Staatsangehörigkeitskategorie immer benötigt, insofern ist der Botauftrag hier durchaus nicht vergeudete Zeit. 85.212.9.215 19:20, 11. Mai 2015 (CEST)Beantworten

officialcharts.de die zweite

Schon ein paar Monate, nachdem aus http://www.charts.de/ die Seite http://www.officialcharts.de/ wurde und ein Massenbotauftrag diese Umbenennung erledigt hat, wurde die Seite schon wieder umbenannt. Sie heißt nun https://www.offiziellecharts.de/ und hat nebenbei auch noch Datenbank- und Linkformate geändert. Hier eine Übersicht:

@Cactus26: würdest du dich wie schon beim letzten Mal dazu bereit erklären, den Crosswiki-Botlinkfix (diesmal in deutlich kleinerem Umfang) zu übernehmen? --Ali1610 (Diskussion) 10:53, 8. Mai 2015 (CEST)Beantworten

Der Zusatz "&country=de" ist schon länger obsolet und viele Links weißen den gar nicht mehr auf. Die Umsetzung http://www.officialcharts.de/artist.asp?name=Alanis+Morissettehttps://www.offiziellecharts.de/suche?artistId=Alanis%20Morissette scheint erst einmal unproblematisch. Trotzdem würde ich da nicht gleich einen Bot losschicken, das ist alles noch neu und ungetestet, Fallstricke tauchen vielleicht erst noch auf. Ich befürchte nämlich, die haben das komplett neu aufgesetzt und sich wenig am Bisherigen orientiert. Also so etwa zwei Wochen Testzeit würde ich schon vergehen lassen. Es funktionieren so viele Chartlinks inzwischen nicht mehr (UK/US), da muss DE nicht morgen fertig sein. Gruß -- Harro (Diskussion) 13:01, 8. Mai 2015 (CEST)Beantworten
Schon mal eine Frage: Wie seid ihr denn auf die Variante mit "artistId" gekommen?--Cactus26 (Diskussion) 14:23, 10. Mai 2015 (CEST)Beantworten
Nachtrag: Für das Rio Reiser Beispiel oben könnte man automatisiert zumindest (zunächst einmal) auf das kommen: https://www.offiziellecharts.de/suche?artist_search=Rio%20Reiser%20-%20Familienalbum%3A%20Eine%20Hommage&do_search=do. Scheint aber alles sehr mühsam...--Cactus26 (Diskussion) 14:42, 10. Mai 2015 (CEST)Beantworten
Cactus, du bist ein Schatz. Du hast gerade einen noch besseren Weg der Verlinkung gefunden, in dem sogar die Wochenzahlen angegeben sind. Die Seite mit der artistId sieht man, sobald man aus der Suche ein Album anklickt und dann ist, wenn man alles ausklappt, unten dieser Link als Künstlerseite zu sehen. Ich hatte länger versucht, die Suchergebnisse zu verlinken, aber er hat mir immer nur die Seite https://www.offiziellecharts.de/suche ohne jegliche Parameter angezeigt. Wie bist du darauf gekommen?
Man könnte also die artist.asp durch die von dir genannte Methode ersetzen, also aus http://www.officialcharts.de/artist.asp?name=Alanis+Morissette mach https://www.offiziellecharts.de/suche?artist_search=Alanis%20Morissette&do_search=do ... Klingt soweit gut. Aber händisches Ersetzen wird hier wohl doch einen Großteil ausmachen :( --Ali1610 (Diskussion) 18:55, 10. Mai 2015 (CEST)Beantworten
Im Fall der Diskographie von Alanis Morisette komme ich eigentlich auf diesen Link: https://staging.offiziellecharts.de/suche?artistId=Alanis%20Morissette Sowas scheint mir treffsicherer als allgemeine Suchlinks, die häufig False-Postive liefern.  Frohes Schaffen — Boshomi ☕⌨☺ Defekte URLs - Hilfe gesucht23:13, 11. Mai 2015 (CEST)Beantworten
Ist richtig, aber leider sind auf der Diskografieseite die Chartwochen nicht zu finden. Deshalb ziehe ich die funktionierende Suchverlinkung vor, die man dann möglicherweise recht spezifisch angeben muss. --Ali1610 (Diskussion) 11:04, 12. Mai 2015 (CEST)Beantworten
Doch, man muss aber in das jeweils 1 Untermenü auklappen, dort ganz unten. Dort ist der Link systematisch auffindbar. "zur kompletten Discographie von $Band" Frohes Schaffen — Boshomi ☕⌨☺ Defekte URLs - Hilfe gesucht21:05, 12. Mai 2015 (CEST)Beantworten
Vielleicht mal ein ganz anderer Gedanke: bevor man den Änderungen des Betreibers hinterher Programmiert, sollte man ihn mal Fragen ob das denn seine letzte Änderung ist. Es ist ja nicht ganz ausgeschlossen, das der Betreiber Wert darauf legt in der Wiki verlinkt zu werden und etwas dafür tut. -- SummerStreichelnNote 14:00, 12. Mai 2015 (CEST)Beantworten
@Ali1610: Zunächst mal Danke für die Blumen :-) Herausgefunden habe ich es über den Quelltext der Seite, indem ich die Elemente untersucht habe, die zur Suche über die Oberfläche dienen. Dort gibt es ein HTML-Element mit dem Attribut name="artist_search", das zur Eingabe des Suchbegriffs dient. Zusätzlich gibt es noch ein verstecktes Element mit namen "do_search", dessen Value-Attribut ich einfach mal versucht habe als Parameter ebenfalls an die URL anzuhängen.
Man kann sich vorstellen, per Bot eine Suche auf diesem Weg durchzuführen und in das Format mit itemid und detailid zu "übersetzen", wenn das Suchergebnis eindeutig ist. Vieles spricht allerdings dafür, eine solche Umstellung mit der Einführung einer Vorlage zu verknüpfen, um in Zukunft vielleicht auf weitere Änderungen der Website etwas besser reagieren zu können (wobei kaum ein Kraut gegen solche radikalten Umstellungen gewachsen ist). Jedenfalls sollten wir genau überlegen, was wir tun, bevor wir loslegen.
Insgesamt scheint mir (auch @Summer ... hier!:), dass die Website die anspruchsvolle Nutzung ihrer Site weniger interessiert wie das Smartphone-Publikum, insofern scheint mir eine Anfrage dort wenig Aussicht auf Erfolg zu haben. Erfahrungsgemäß bekommt man selten überhaupt eine Antwort und eine die über "tut uns leid" hinausgeht, fast nie. Aber Du kannst es gerne versuchen...--Cactus26 (Diskussion) 11:04, 14. Mai 2015 (CEST)Beantworten
Wenn eine Seite nicht stabil besteht, kann das auch bedeuten, dass sie zur Verlinkung nicht geeignet ist. MBxd1 (Diskussion) 11:38, 14. Mai 2015 (CEST)Beantworten
+ Zustimmung (wobei ich diesen Fall nicht werte). Aber noch als Hinweis: bei statischen Seite kann man sich bei Namenswechsel noch mit Archiven behelfen. Bei dynamsichen Seite hat man geloost. .. -- SummerStreichelnNote 17:25, 16. Mai 2015 (CEST)Beantworten
@Boshomi: der von dir benutzte Link mit "staging" drin erfordert nun eine Logindateneingabe, meine Version ohne funktioniert noch. Was meintest du mit "aufklappen"? Auf den Diskografieseiten sind nur Peak und Eintrittsdatum, aber keine Wochen angegeben.
@HvW: Einen kleinen Fehler habe ich auch noch gefunden: die monatlichen Charts aus den Anfangszeiten sind in der Datenbank nur als eine Woche statt als 4 angegeben.
@Cactus26: Kannst du bitte das mit der Vorlage noch genauer erläutern? Ich zweifele daran, dass die Seitenstruktur in den nächsten Monaten nochmal überarbeitet wird, wo so viel Arbeit in den Umbau investiert wurde. Die vorige Änderung war schon umfangreich. Das einzige wäre eventuell die Einbindung der Genrecharts. --Ali1610 (Diskussion) 10:14, 27. Mai 2015 (CEST)Beantworten
Offensichtlich bauen die die Webseite im Wochenrhythmus einemal kräftig um. Abgeschlossen ist da noch lange nichts. Bevor man das wieder angreift würde ich mal mehrere Monate abwarten. Dass jetzt die Daten nicht mehr angezeigt werden, wundert mich auch kaum, da anscheinend alles für Mobiltelefone optimiert wird.  Frohes Schaffen — Boshomi ☕⌨☺ Defekte URLs - Hilfe gesucht11:46, 27. Mai 2015 (CEST)Beantworten
Welche Umbauten meinst du? Mittlerweile hat es sich bei mir schon ganz gut eingespielt. Allerdings habe ich schon mehrfach auf artist_search verzichtet, entgegen der Bezeichnung sucht das nämlich auch in den Titeln. Fürs Bearbeiten ist es vielleicht besser, als Beleglink wäre die artistID eventuell besser? Vorlage sollte man aber ernsthaft überlegen, leider ändern die ganzen Seiten ständig die Interpreten-IDs, da ist man machtlos, aber bei harmloseren Änderungen ist man flexibel und erspart sich Botläufe, die mittlerweile ja schon ein ziemlicher Aufwand sind, so viele Links wie es inzwischen gibt.
@Ali: Es gibt noch mehr Diskrepanzen zu Chartsurfer, aber da müssen wir mal ne Fachrunde abhalten, ist hier uninteressant. Gruß -- Harro (Diskussion) 21:22, 27. Mai 2015 (CEST)Beantworten

Dauerauftrag für das Portal:Tennis

Hallo, wäre es möglich, dass uns bei der Aktualisierung des Portals ein Bot unterstützt? Es wären folgende Aufgaben:

  1. Aktualisierung der Seite Portal:Tennis/Kürzlich Verstorben: Dort sollten immer die vier zuletzt verstorbenen Tennisspieler, welche einen Wikipedia-Artikel besitzten eingetragen werden. Der aktuellste immer in der ersten Zeile.
  2. Aktualisierung der Seite Portal:Tennis/Kommende Turniere: Hier sollten immer Turniere stehen, welche im Moment ausgetragen werden, oder innerhalb der nächsten vier Wochen beginnen. Eine übersicht, wann welches Turnier ausgetragen wird findet sich für die Herren auf ATP World Tour 2015 und für die Damen auf WTA Tour 2015. Für das nächste Jahr ändern sich natürlich die Artikel zu ATP World Tour 2016 und WTA Tour 2016.
  3. Zum guten Schluss wäre da noch die Seite Portal:Tennis/Tennisspieler: Dort müsste sich der Bot die Informationen aus entsprechenden Navigationsleisten heraussuchen. Die Damenweltrangliste [1], die Herrenweltrangliste [2], Für den Bereich Weitere deutschsprachige Spielerinnen in den Top 100 und Weitere deutschsprachige Spieler in den Top 100 [3], [4], [5], [6], [7], [8] Achtung: aus den Navileisten 3 bis 8 sollten nur Tennisspieler herausgesucht werden welche unter den Top 100 der Weltrangliste stehen. Außerdem sollten unter Weltranglistenerste der Damen: alle Spieler die hier [9] eingetragen sind stehen und unter Weltranglistenerste der Herren: alle die in dieser [10] Navileiste verlinkt sind.

Wenn alles funktionieren würde wäre es super. Falls irgend etwas aus technischen Gründen vielleicht nicht möglich sein sollte geht die Welt auch nicht unter. Ich hoffe es findet sich jemand, der uns da behilflich sein kann. Gruß, Korrektor123 (Diskussion) 12:38, 23. Mai 2015 (CEST)Beantworten

Sieht alles machbar aus, das erste könnte man dann z.B. über die Treffer des gestorbenen Filters realisieren. Ich kann mich aber leider nicht kümmern, ich hab noch zu viele andere Bot Aufgaben. Viele Grüße, Luke081515 12:57, 23. Mai 2015 (CEST)Beantworten
ein SmileysymbolVorlage:Smiley/Wartung/working  klingt interessant, mach ich – Doc Taxon (Diskussion) • Wiki-MUC13:18, 23. Mai 2015 (CEST)Beantworten
Danke, falls du noch fragen hast, kannst du ja beim Portal nachfragen. --Korrektor123 (Diskussion) 11:05, 25. Mai 2015 (CEST)Beantworten

Nr. 1 ist schon mal in Betrieb ein lächelnder Smiley Doc Taxon (Diskussion) • Wiki-MUC21:16, 31. Mai 2015 (CEST)Beantworten

Rückmeldung: keine Sorge, ist noch in Arbeit, bin gerade nur bissl im Stress – Doc TaxonDiskussionWiki-MUCShow some WIKILOVE18:46, 4. Jul. 2015 (CEST)Beantworten

Nr. 2 läuft nun auch, muss aber noch bissl getuned werden – Doc TaxonDiskussionWiki-MUCWikiliebe?! 02:39, 20. Okt. 2015 (CEST)Beantworten

600 Literatureinträge durch Vorlage verbessern: Biographisches Lexikon

Wir haben derzeit etwa 600 Artikel, die auf ein Lexikon von Anton Balthasar König verweisen. Dieses Lexikon ist neuerdings digitalisiert bei Wikisource vorhanden und wir haben Vorlage:BL-König, die automatisch die Details übernimmt und auf die jeweilige Seite verlinkt. Es wäre daher wünschenswert, die vorhandenen Verweise auf die Vorlage umzustellen. Es wird sicher nicht alles automatisch gehen, aber zumindest den größten Teil per Bot zu erledigen würde helfen.

In der Regel ist das Lexikon im Literaturabschnitt eingebunden, in der Hälfte der Fälle etwa so:

  • * [[Anton Balthasar König]]: ''Biographisches Lexikon aller Helden und Militairpersonen.'' Band $1, 1788, S. $2, [http://books.google.de/books?pg=PA208&id=Qss5AAAAcAAJ Digitalisat]

$1 und $2 sind Platzhalter und müssten in die Vorlage eingesetzt werden. Es gibt vier Bände, teilweise sind diese als 1 2 3 4 geschrieben, teilweise als I II III IV, in dem Fall bitte in 1 2 3 4 umwandeln. Benutzer:A1000 hat viele der Literaturangaben eingefügt, das Format ist weitgehend einheitlich. Sobald der volle Titel des Lexikons angegeben wird und Band und Seite auslesbar sind (bei "S. 65-67" nur die Startseite nutzen), kann die ganze Literaturangabe ersetzt werden. Vorstellbar wäre also Regex im Stil von /^\*.+Biographisches Lexikon aller Helden und Militairpersonen.*Band ([1-4IV]+)[^1-4IV]*S\. ?([0-9]+)[^0-9]/ für Literaturabschnitte. Im Falle eines Treffers dann die ganze Zeile durch * {{BL-König|Band=...|Seite=...}} ersetzen.

Etwa 300 mal wurde die Literaturvorlage verwendet (Beispiel). Die lässt sich ebenfalls ersetzen, damit wir den Wikisource-Link bekommen. --mfb (Diskussion) 20:35, 24. Mai 2015 (CEST)Beantworten

man koennte die Anzahl der umgewandelten Eintraege erhoehen wenn man nach id=Qss5AAAAcAAJ (bzw. die anderen ids) sucht und dann aus dem pg=PA die Nummer extrahiert um die entsprechende Seite zu erzeugen -- A1000 (Diskussion) 22:01, 24. Mai 2015 (CEST)Beantworten
Würde es helfen, wenn ich eine Liste der betroffenen Artikel und Ersetzungen erstelle? --mfb (Diskussion) 00:35, 14. Jun. 2015 (CEST)Beantworten
alle Einbindungen ganz ohne Vorlage mit altem und neuem Text. Die mitten im Fließtext habe ich manuell gemacht da der Name teilweise vom Lemma abweicht, das ist bei den verbleibenden Einbindungen aber kein Problem. "Aktuelle Zeile" hat aufgrund eines Bugs das letzte Zeichen nicht aber das sollte kein Problem darstellen (?). --mfb (Diskussion) 00:27, 15. Jun. 2015 (CEST)Beantworten
Die Änderungen kann ich über meinen Bot laufen lassen. Hab aber noch kurze Rückfragen: Die Ersetzungsvorgaben sind schon mal hilfreich, das ist ja quasi schon die ganze Arbeit. Bei den meisten Einträgen müsste aber nach „Digitalisat“ noch eine schließende eckige Klammer folgen. Und bei den Klammerlemmata wie Friedrich Wilhelm (Brandenburg-Schwedt) müsste wohl bei Vorlage:BL-König noch der Parameter Name gesetzt werden. Bestenfalls natürlich --$traight-$hoota {#} 12:50, 15. Jun. 2015 (CEST)Beantworten
Wie gesagt, das letzte Zeichen fehlt überall, ich wollte den Zeilenumbruch entfernen aber an der Stelle im Code war der nicht mehr da also wurde das letzte normale Zeichen entfernt. Ich kann die Liste ggf. nochmal neu erstellen. Klammerlemmata sind kein Problem, die Vorlage filtert die Klammerzusätze automatisch raus. --mfb (Diskussion) 14:32, 15. Jun. 2015 (CEST)Beantworten
Okay, die Klammern hab ich korrigiert. Wenn die Lemmata passen, ist ja soweit alles klar. Dann fang ich mal an. --$traight-$hoota {#} 16:42, 15. Jun. 2015 (CEST)Beantworten
Waren 165 Einträge, wenn du 100 ergänzt hast fehlt bei 65 noch ein Zeichen. --mfb (Diskussion) 17:34, 15. Jun. 2015 (CEST)Beantworten
Sry, wurde vorhin unterbrochen. Es sind 154 Einträge. Aber nicht bei allen fehlte am Ende eine Klammer. Bei manchen fehlt aber immer noch eine runde Klammer am Ende… das korrigiere ich noch. Muss aber grad noch was anderes richten. --$traight-$hoota {#} 19:46, 15. Jun. 2015 (CEST)Beantworten
Ah ja, ein paar hatte ich von Hand ersetzt, die waren da noch mitgezählt. Ich habe das Script nochmal laufen lassen, das letzte Zeichen ist jetzt überall dabei. Reparierte Version --mfb (Diskussion) 21:02, 15. Jun. 2015 (CEST)Beantworten
Ich muss noch etwas basteln um meinen Bot zum Laufen zu bekommen, nach der Rechner-Neuinstallation klemmt es irgendwie. Aber ich kümmer mich drum, kann ggf. aber noch ein, zwei Tage brauchen. --$traight-$hoota {#} 16:07, 16. Jun. 2015 (CEST)Beantworten
Ich bin jetzt durch mit deiner Liste. Die Änderungsvorgaben waren allerdings manchmal fehlerhaft (einzelnes Zweichen hat nicht gepasst), ich bin dann daher zwischendurch auf einen eigenen regulären Ausdruck umgestiegen. In der Datenbank findet sich das Werk aber immer noch in hunderten von Literaturangaben, die meisten davon formatiert als Sammelwerk (z.B. in Levin August von Dingelstädt). Das muss ich mir mal anschauen, sollte aber kein allzu großes Problem sein, meinen Bot umzutrainieren. --$traight-$hoota {#} 23:19, 16. Jun. 2015 (CEST)Beantworten
Ja, die Literaturvorlagen hatte ich nicht ausgewertet. Welche Zeichen waren falsch? Das wäre für zukünftige Analysen interessant. --mfb (Diskussion) 00:22, 17. Jun. 2015 (CEST)Beantworten

Elo-Zahlen in Wikidata einfügen

Könnte ein Bot-Betreiber auf Wikidata für jeden Schachspieler alle Elo-Zahlen von der Weltschachbundseite abgreifen und in die Wikidata-Items einfügen? Beispiel: In das Item von Magnus Carlsen sollen alle Elo-Zahlen rein, die hier (in der Spalte "RTNG") verzeichnet sind. Das ganze soll in einer Form geschehen wie bei diesem Ort unter "Population", sodass in einem weiteren Schritt (der natürlich nichts dem Botauftrag hier zu tun hat) die Elo-Zahlen in einer Form veranschaulicht werden können, wie das im Ortsartikel hu:Carcelén mit den Einwohnerzahlen gemacht wurde. Wer kriegt das hin? Anmerkung: Es könnte der Einwand kommen, warum man das machen sollte, wo doch die FIDE schon eine Tabelle samt Grafik hat. Einfache Antwort: Die FIDE hat in ihrer Datenbank nur die Elo-Zahlen ab 2000. Da es die Elo-Zahlen aber schon seit 1971 gibt, wäre eine Datenvorhaltung in Wikidata ein echter Mehrwert. Für die Jahre bis 2000 müsste man halt andere Datenbanken auftreiben, um die Daten auszulesen (z. B. http://benoni.de/, da gibts die Daten ab 1990). Die FIDE-Datenbank genügt aber fürs erste. 85.212.22.136 00:14, 5. Jun. 2015 (CEST)Beantworten

Wäre das nicht eher eine Botanfrage für Wikidata, d:Wikidata:Bot requests? --Krd 11:40, 7. Jun. 2015 (CEST)Beantworten
Achso, das kannte ich nicht. Ist aber blöd, dann muss ich den Antrag auf englisch stellen, oder? 85.212.22.136 14:53, 7. Jun. 2015 (CEST)Beantworten
_Musst_ Du nicht, aber es erhöht natürlich die Chancen, dass es schnell gemacht wird. Wikidata funktioniert etwas anders als Wikipedia, daher können die Botbetreiber dort das vielleicht besser bzw. schneller. Vielleicht gibt es in Wikidata auch Schachspieler, die hier noch keinen Artikel haben. --Krd 15:29, 7. Jun. 2015 (CEST)Beantworten
Ich habe die Anfrage übersetzt. --mfb (Diskussion) 15:48, 7. Jun. 2015 (CEST)Beantworten
Dort tut sich leider nichts. Kann das nicht ein lokaler Bot-Betreiber übernehmen? Ob hier ein Artikel existiert oder nicht spielt doch keine Rolle. 85.212.3.197 15:41, 12. Jun. 2015 (CEST)Beantworten

Wurde dort erledigt. Luke081515 14:06, 3. Jul. 2015 (CEST)Beantworten

Nein wurde es nicht. Es wurde lediglich die Elo-Zahl für einen Monat ergänzt, aber nicht die gesamte History seit 2000. 79.217.147.233 17:41, 4. Jul. 2015 (CEST)Beantworten

Tja, mittlerweile ist die Ratings-History der Spieler in der FIDE-Datenbank hinter einer Login-Schranke verborgen. So kommts, wenn man sich nicht zeitig darum kümmert. Auf http://www.benoni.de/schach/elo/ kann man die Elos für die Spieler noch abrufen. 85.212.52.233 22:18, 12. Aug. 2015 (CEST)Beantworten

Großmeistertitel-Jahre nach Wikidata

Könnte ein Botbetreiber die Verleihungsjahre des Großmeistertitels aus der Liste der Schachgroßmeister auslesen und in die entsprechenden Items der Schachspieler auf Wikidata schreiben? Ein Beispiel wäre das Item von Magnus Carlsen. Die FIDE-Datenbank kann hierzu nicht sinnvoll verwendet werden, da bei vielen Spielern die Jahresangaben der Titelverleihungen auf den Profilseiten fehlen. 85.212.13.32 01:03, 14. Jun. 2015 (CEST)Beantworten

Italienische Provinzen->Metropolitanstädte

Von den ehemals 109 Provinzen Italiens wurden am 1. Januar 2015 zehn in Metropolitanstädte umgewandelt. In de.wiki haben wir dem mit einer Anpassungsaktion Rechnung getragen, bspw. bei Lemmas, Infoboxen, Navileisten, Listen, Kategorien. Es verbleibt das Problem, dass in den Artikeln zu den Kommunen, die bis 2014 den 10 Provinzen angehört haben und jetzt zu den neuen Metropolitanstädten gehören, im laufenden Artikeltext noch immer steht, dass sie der Provinz XY angehören, und nicht, wie es sein sollte, der Metropolitanstadt XY. Beispiel: Venaria Reale in der ehemaligen Provinz Turin, jetzt aber Metropolitanstadt; Sestri Levante (Fall Genua), Fiumicino (Fall Rom), usw usw. Dieses Problem dürfte mehrere hundert (wenn nicht tausende) Artikel betreffen, weswegen man darauf einen Bot ansetzen sollte, soweit möglich. Auf der entsprechenden Portal Diskussion:Italien#Città metropolitana hat :@$traight-$hoota:, ein Informatiker, gemeint, dass das möglich sein sollte, wobei es zu empfehlen sei, sich in den betreffenden Artikeln nur auf die ersten beiden Absätze zu beschränken, da an anderen Stellen, z.B. im Geschichtsabschnitt, eine Änderung den historischen Umständen keine Rechnung tragen könnte. Es sollten also in den Artikeln zu Gemeinden, die den Provinzen bzw. heutigen Metropolitanstädten Turin, Genua, Mailand, Venedig, Bologna, Florenz, Rom, Neapel, Bari und Reggio Calabria angehören, in den ersten beiden Abschnitten des laufenden Artikeltextes die Links auf die jeweilige Provinz auf Links zur jeweiligen neuen Metropolitanstadt umgestellt werden. Bei den Hauptstädten dieser Metropolitanstädte, bspw. Mailand oder Rom ist dies bereits manuell erledigt worden. Sollte meine Bot-Anfrage nicht den Standards entsprechen, würde ich gern Straight-Shoota bitten, die Anfrage zu ergänzen. Vielen Dank und Gruß --Black Smoker (Diskussion) 21:06, 16. Jun. 2015 (CEST)Beantworten

Anmerkung: Generell in irgendwelchen Artikeln alle Provinzen zu ersetzen geht nicht ("liegt neben der Provinz Parma"), aber alle Verwendungen von [[Provinz Turin]] auf das Weiterleitungsziel [[Metropolitanstadt Turin]] umzuändern sollte ein Bot können, analog mit Links zu den anderen 9 Artikeln. Betroffen sind diese 10 Provinzen: Bari|Bologna|Florenz|Genua|Mailand|Neapel|Reggio Calabria|Rom|Turin|Venedig. Artikellisten finden sich in den entsprechenden Linklisten, sind alleine für Turin etwa 500. --mfb (Diskussion) 22:10, 16. Jun. 2015 (CEST)Beantworten
So sollte es sein, aber nur bei Gemeindeartikeln, geografischen Artikeln oder Artikeln zu "zeitlosen" Themen (bspw. nicht bei Personen, die bspw. in der Provizn Turin geboren wurden; die können 1950 nicht in der Metropolitanstadt Turin geboren worden sein), wobei die Änderung wenn möglich nicht über die ersten beiden Artikelabschnitte hinausgehen sollte, weil sonst Geschichtliches betroffen sein könnte (wo die alten Provinzen bleiben sollen), wie Straight-Shoota schon sagte. Was der Bot nicht kann, muss man halt im Lauf der Zeit manuell machen. Aber es wäre angesichts der Artikelmassen schon ein enormer Gewinn. --Black Smoker (Diskussion) 22:30, 16. Jun. 2015 (CEST)Beantworten
Ich würde es sogar eher erst mal auf bestimmte Objektklassen wie eben die Gemeinden beschränken und dort eben auch nur in der Einleitung. Das ist ja schon mal ein ganzer Brocken Arbeit, der einfach abgenommen werden kann. Vor allem ist dort auch nur eine Handvoll Formulierungen wie „in der Provinz Turin“ vorhanden, die zusätzlich zur Sicherung vor unbeabsichtigten Änderungen einbezogen werden kann. --$traight-$hoota {#} 23:13, 16. Jun. 2015 (CEST)Beantworten

Ja, ich wäre dankbar, wenn man dieses Mindestprogramm abspulen könnte. Ich sehe dann noch so einige andere Dinge, wo mir angesichts evtl Handarbeit schlecht wird:

Bei der Liste der Gemeinden in der Metropolitanstadt Turin besteht kein Bedarf mehr. --Black Smoker (Diskussion) 23:21, 17. Jun. 2015 (CEST)Beantworten

Siehe Intro, Punkt 7. --Matthiasb – Vandale am Werk™ (CallMyCenter) 22:39, 22. Jun. 2015 (CEST)Beantworten
Liest du die Anfragen auch durch bevor du sie kommentierst? Es geht auch um den angezeigten Text, denn der ist derzeit ebenso falsch. --mfb (Diskussion) 22:41, 22. Jun. 2015 (CEST)Beantworten
Natürlich. Es geht eben nicht um den angezeigten Text, weil der in vielen Fällen auch nach wie vor richtig ist, etwa wie oben angeführt, in allen Fällen mit historischem Zusammenhang. Solche Feinheiten kann man nicht mit einem Boteinsatz lösen. Bei den Gemeindelisten könnte ich eventuell mit AWB mithelfen, aber frühestens am Wochenende. --Matthiasb – Vandale am Werk™ (CallMyCenter) 22:48, 22. Jun. 2015 (CEST)Beantworten
Natürlich, deswegen auch der völlig unsinnige Verweis auf Punkt 7. Wegen der möglichen historischen Zusammenhänge soll der Boteinsatz auf die ersten zwei Absätze beschränkt werden. --mfb (Diskussion) 22:51, 22. Jun. 2015 (CEST)Beantworten
Die Gemeindelisten habe ich schon aktualisiert. Bei den Gemeindeartikeln geht es ja nicht nur um eine Linkänderung, sondern um eine inhaltliche Aktualisierung. Die ehemalige Provinz Turin heißt jetzt nämlich nicht mehr so, sondern Metropolitanstadt Turin. --$traight-$hoota {#} 14:52, 23. Jun. 2015 (CEST)Beantworten
Danke für die Gemeindelisten, Straight-Shoota. Wie gesagt, angesichts der Artikelmassen wäre ich für die Aktualisierung der Gemeindeartikel dankbar, den Rest kann man dann manuell machen.--Black Smoker (Diskussion) 17:49, 23. Jun. 2015 (CEST)Beantworten

Ich hab mal ein paar Test-Edits in Kategorie:Gemeinde in Ligurien gemacht: Spezial:Beiträge/$traight-Bot --$traight-$hoota {#} 15:30, 8. Jul. 2015 (CEST)Beantworten

@$traight-$hoota: Wie ist bei der Anfrage hier der Status? Viele Grüße, Luke081515 20:23, 8. Okt. 2015 (CEST)Beantworten
Der Bot ist konfiguriert und hat ein paar Test-Edits gemacht (hier nochmal der Direktlink zu den Benutzerbeiträgen). Ich hab die Edits soweit auch durchgeschaut, dass sie in Ordnung aussehen, aber von Black Smoker kam dann nichts mehr. Und ohne Rückmeldung, ob das der gewünschten Form entspricht oder noch Änderungen vorzunehmen sind, wollte ich auch nicht voll durchstarten. --$traight-$hoota {#} 10:45, 9. Okt. 2015 (CEST)Beantworten
Wie man auf meiner Disk sehen kann, mache ich eine WP-Pause. Es wäre sinnvoll, diese Dinge bei Bedarf auch auf Portal Diskussion:Italien#Città metropolitana zu posten. Dank und Gruß --Black Smoker (Diskussion) 18:02, 17. Okt. 2015 (CEST)Beantworten

Verwaiste Seiten im WPNR

Ich hätte gerne eine Liste der verwaisten Seiten im Wikipedia-Namensraum. 85.212.56.213 21:12, 5. Jul. 2015 (CEST)Beantworten

Definiere "verwaist". Alexpl (Diskussion) 21:15, 5. Jul. 2015 (CEST)Beantworten
Verwaist heißt, dass keine Links draufzeigen. Weder aus ANR noch WPNR noch sonst wo her. 85.212.55.140 21:40, 5. Jul. 2015 (CEST)Beantworten
Also quasi Spezial:Verwaiste_Seiten für den WP-Namensraum, aber mit Links von allen anderen Namensräumen? --mfb (Diskussion) 21:50, 5. Jul. 2015 (CEST)Beantworten
Wie Spezial:Verwaiste_Seiten, nur für den WPNR und die Seiten sollen gar nicht verlinkt sein. 85.212.56.213 22:57, 5. Jul. 2015 (CEST)Beantworten
Das meinte ich damit ("statt nur ANR-Links alle Links berücksichtigen bei der Auswertung"). --mfb (Diskussion) 00:54, 6. Jul. 2015 (CEST)Beantworten

Das könnt ihr knicken:

LG --PerfektesChaos 13:20, 6. Jul. 2015 (CEST)Beantworten

Dann bitte Benutzer:EfenBot/Sitemap 1/WP: und Benutzer:EfenBot/Sitemap 1 -w/WP: bei der Suche ignorieren. 129.13.72.197 13:26, 6. Jul. 2015 (CEST)Beantworten

Dauerauftrag: Bot, der Items auf Wikidata erstellt

Der tägliche Artikel-, Kategorien- und Vorlagen-Zuwachs muss irgendwie zeitnah in Items auf Wikidata abgebildet werden. Offensichtlich gibt es dafür aktuell (noch) keinen Bot, denn sonst wäre der Rückstand der Seiten ohne Item so groß. Kann irgendein Botbetreiber seinen Bot dafür rüsten, dass der dann bei jeder neu angelegten Seite in hinreichend kleinem Zeitabstand (z. B. 3 Tage) ein Item auf Wikidata erstellt? 85.212.50.100 22:02, 6. Jul. 2015 (CEST)Beantworten

Inkowik hatte ja mal so einen Bot, aber der führt den ja leider nicht mehr fort. Zudem ist das ganze sehr aufwendig, da da wohl Handarbeit notwendig ist, da man meines Wissens bisher noch nicht die Seiten per API auslesen kann, die noch nicht mit Wikidata verbunden sind. Viele Grüße, Luke081515 22:15, 6. Jul. 2015 (CEST)Beantworten
Naja, man kann mit diesem Tool per Hand zu jeder beliebigen Kategorie in Wikipedia die Artikel auslesen, die kein Item haben (und dann Items erstellen lassen). Das sollte auch per API gehen. 85.212.50.100 22:37, 6. Jul. 2015 (CEST)Beantworten
Bot ist gerade im Peer-Review, kommt demnächst.  @xqt 17:31, 29. Jul. 2015 (CEST)Beantworten
Was heißt "demnächst"? 147.142.156.223 10:45, 13. Sep. 2015 (CEST)Beantworten
Demnächst heißt, das jemand dieses Review abschließt: gerrit:227454. Viele Grüße, Luke081515 00:50, 20. Sep. 2015 (CEST)Beantworten

Fehlende Beschreibungen nachtragen

In der Kategorie:Datei:Beschreibung fehlt gibt es rund 600 500 Dateien ohne Beschreibung. Viele davon sind jedoch in einem Artikel eingebunden und haben dort einen Beschreibungstext. Es wäre schön, wenn diese per Bot in die Dateibeschreibungsseiten kopiert werden könnten. --Leyo 03:05, 11. Jul. 2015 (CEST)Beantworten

Das sollte aber manuell kontrolliert werden, denn es kann Fälle geben, bei denen die Bildbeschreibung im Artikel keine sinnvolle Bildbeschreibung auf der Dateiseite ist. 129.13.72.197 16:01, 12. Jul. 2015 (CEST)Beantworten
Manuell kontrollieren ist deutlich schneller gemacht als manuell durchführen. --Leyo 22:59, 30. Aug. 2015 (CEST)Beantworten

Eine Alternative wäre, die betreffenden Uploader anzuschreiben (Standardtext & Dateiliste). --Leyo 00:21, 18. Okt. 2015 (CEST)Beantworten

@Leyo: Nun, in dieser Kategorie gibt es aktuell 252 verwaiste Dateien. Also könnten höchstens bei der Hälfte der Dateien dieser Kategorie etwas aus dem Artikel ausgelesen und eingetragen werden. Ich werde das mal durchführen und eine Art Kontrolltabelle erstellen. Bis dann, – Doc TaxonDiskussionWiki-MUCWikiliebe?! 01:53, 17. Dez. 2015 (CET)Beantworten

Danke. Bei den verwaisten Dateien stammen wohl einige aus gelöschten Artikeln und können entsorgt werden. Sobald nur noch diese übrig sind, hat man eine bessere Übersicht. --Leyo 02:07, 17. Dez. 2015 (CET)Beantworten

MySpace-Seiten offline

Bei der Abarbeitung der Liste Benutzer:APPER/Bands ist mir aufgefallen, dass in der deutschsprachigen WP noch jede Menge veraltete MySpace-Links unter den Artikeln stehen, die schon lange nur noch auf die Hauptseite (Myspace.com) statt auf eine einzelne Band verweisen.[6] In der engl. WP wurden sie per Bot gelöscht. (Ich weiß allerdings nicht mehr, ob damals radikal alle Links gelöscht wurden oder nur jene, die offline sind.) Neue oder noch aktive Seiten können über die Vorlage {{Myspace}} eingebunden werden. --Kolja21 (Diskussion) 17:13, 3. Aug. 2015 (CEST)Beantworten

Ich habe in letzter Zeit etliche dieser Links gefixt. Eine Menge der Links lassen sich alleine durch das Entfernen des "www." fixen, wobei das keine allgemein gültige Vorgehensweise ist. Vom Rest findet man teilweise noch was in den verschiedenen Archiven, teilweise sind die Inhalte noch online, aber an anderer Stelle. Die Suche innerhalb der Domain ist oft aufwendig und führt nur gelegentlich zum Erfolg. Frohes Schaffen — Boshomi ☕⌨☺ Defekte URLs - Hilfe gesucht19:30, 3. Aug. 2015 (CEST)Beantworten
Alleine von http://www.myspace.com haben wir 6191 URLs im ANR. Frohes Schaffen — Boshomi ☕⌨☺ Defekte URLs - Hilfe gesucht19:34, 3. Aug. 2015 (CEST)Beantworten
@Boshomi: Danke für den Tipp mit der verkürzten Linkadresse (ohne "www"). Ein Grund mehr, Myspace nur mit Vorlage zu verwenden. Auf Archivlinks braucht man ihmo nur bei Einzelnachweisen zurückgreifen. Im Abschnitt "Weblinks" sollten dem Leser aktuelle Seiten geboten werden. --Kolja21 (Diskussion) 19:47, 3. Aug. 2015 (CEST)Beantworten
Wenn ich mir viele der um "www." gekürzten Links anschaue, kommen mir ernste Zweifel, ob das den Kriterien von WP:WEB entspricht. Bei einer großen Zahl an Künstlern/Bands ist dort nur wenig Inhalt zu finden.  Frohes Schaffen — Boshomi ☕⌨☺ Defekte URLs - Hilfe gesucht19:59, 3. Aug. 2015 (CEST)Beantworten

Ich möchte eine Liste mit allen Artikeln, die noch Interwiki-Links enthalten. Die Volltextsuche funktioniert offensichtlich nicht. 92.74.26.159 22:05, 14. Sep. 2015 (CEST)Beantworten

Die findet durchaus Treffer, vermutlich nicht alle aber immerhin. --mfb (Diskussion) 22:44, 14. Sep. 2015 (CEST)Beantworten
Warte doch zumindest mal, bis dieser Botlauf beendet ist. --Leyo 23:32, 14. Sep. 2015 (CEST) PS. Allenfalls von Interesse: #Interwikis entfernen, nicht verbundene ObjekteBeantworten
"nicht alle" ist die Untertreibung des Jahres. Das waren, bevor sich YiFeiBot ans Werk gemacht hat, ungefähr 200, und sind jetzt noch 180, obwohl YiFeiBot bereits 2000 Artikel bearbeitet hat. Nach Adam Riese und Statistik findet die Suche also gerade mal 1% ! Die Suche nach en-Interwikis liefert allein schon mehr als 7000 Resultate. Auf diesen Zahlen basierend haben geschätzt noch 20.000 Artikel mindestens einen Interwikilink. 129.13.72.196 08:56, 15. Sep. 2015 (CEST)Beantworten
Ja, die Suche nach einzelnen Sprachen findet mehr. Nimm die 10 größten Sprachversionen, und du findest vermutlich 90% der Links. Oder auch: mehr als du von Hand korrigieren willst. --mfb (Diskussion) 14:07, 15. Sep. 2015 (CEST)Beantworten
Es geht nicht nur um mich, sondern darum eine Liste zu haben, die auch andere Benutzer abarbeiten können. 129.13.72.196 16:54, 15. Sep. 2015 (CEST)Beantworten
Dann schlage ich vor, mit den 7500 englischen Interwikis anzufangen. Die sind tendenziell die einfachsten, und sollte sich dort wirklich Fortschritt abzeichnen, erstelle ich gerne eine Liste der Restlichen. Oft sind die verbleibenden Interwikilinks durch Konflikte entstanden, die sich nicht leicht lösen lassen - zwei deutsche Seiten passen beispielsweise zu einer englischen oder umgekehrt. Teilweise behandeln Artikel nahezu aber nicht exakt das Gleiche, sobald irgendeine obskure Sprachversion dazwischen unterscheidet gibt es zwei Wikidata-Einträge, sodass die Hälfte der eigentlich sinnvollen Verlinkungen fehlt. --mfb (Diskussion) 17:04, 15. Sep. 2015 (CEST)Beantworten
Ja dann erstell halt eine Liste bzgl. der englischen Interwiki-Links. 94.217.106.183 19:45, 15. Sep. 2015 (CEST)Beantworten

Stopp!
Woher kommt eigentlich die Ansicht, dass jegliche Interwiki-Links zu löschen seien? Das mag für die Mehrzahl der Artikel richtig sein, für die es in anderen Wikipedia-Ausgaben einen Artikel gibt, der genau das gleiche Thema behandelt. Es gibt aber gerade bei den Sachartikeln auch eine recht bedeutende Minderheit, bei denen es solche eins-zu-eins-Entsprechungen nicht gibt. Das hat verschiedene Ursachen. Begriffe werden in verschiedenen Sprachen nicht notwendigerweise gleich abgegrenzt. Verschiedene Sprachversionen haben unterschiedliche Auslegungen davon, was ein WP-Artikel zum Thema haben soll. Hier in de-WP wird zum Beispiel vergleichsweise stark darauf geachtet, dass ein Artikel genau einen Begriff darstellt. Anderswo ist mehr das Wort der Aufhänger.
Musterbeispiel: Translation. Das, was hier in Translation (Physik) dargestellt wird, ist in der englischen in einem Abschnitt im Artikel zu finden. Den Artikel über Wikidata zu verlinken geht aber nicht, denn die geometrische Bedeutung von Translation findet sich bei uns (zu Recht) in einem eigenen Artikel Parallelverschiebung.
Das Meta-Ziel, alle Interwikilinks zu eliminieren, hat nun die obige 94er-IP dazu veranlasst, die entsprechende Verbindung ersatzlos zu entfernen. Tut mir leid, liebe IP, aber das ist beim besten Willen keine Verbesserung. Ich gehe davon aus, dass Du weitere ähnlich gelagerte Fälle in Zukunft auf sich beruhen lässt.
Die Probleme bei der Translation sind dabei gar nicht so ungewöhnlich. Es ist auch nicht zu erwarten, dass sie sich im Laufe der Zeit in Wohlgefallen auflösen, wenn die Wikipedia sich der "Vollständigkeit" nähert. Denn die Ursache liegt letztlich in unauflösbaren Unterschieden zwischen Sprachen. Ein blindes Befolgen simpler Regeln führt dabei zu eher absurden Ergebnissen. So ist im Moment unserem Artikel Universum keine anderssprachige Parallel-Version zugeordnet.---<)kmk(>- (Diskussion) 20:40, 15. Sep. 2015 (CEST)Beantworten

Wie komst du denn darauf? d:Q1 hat mehr als genug Sprachlinks. 94.217.106.183 21:03, 15. Sep. 2015 (CEST)Beantworten
Unter den Sprachlinks ist keiner in die deutsche WP. Das hat zur Folge, dass die Abteilung "Sprachen" in der linken Spalte bei Universum leer bleibt. Nein, das war noch nicht immer so. Und das Universum ist hoffentlich wichtig genug, dass sich früher oder später jemand bei Wikidata ein Herz nimmt und den entsprechenden Eintrag händisch ergänzt. Das Problem kommt durch das Umfeld. Die Begriffe "Kosmos", "Weltraum" und "Universum" bilden sich eben nicht eins-zu-eins auf "cosmos", "outer space" und "universe" ab. Die entsprechden Differenzen ziehen sich quer durch die großen Wikipedia-Sprachen. Beim Versuch, diese Unstimmigkeiten quasi-automatisch aufzulösen, ist offenbar als Kollateralschaden die Verbindung zwischen Universum und universe verloren gegangen.
Leider sind solche Mehrdeutigkeiteun und die sich daraus ergebenden Verschlimmbesserungen durch Regelbefolgung beim Übergang zu Wikidata keine seltene Ausnahme. Ein deutlicher Teil unserer Sachthemen hat auf diese Weise eine angemessene Verbindung zu anderen Sprachversionen verloren. Nochmal: Von welchem Projektgrundsatz wird solche Verschlechterung der Nutzbarkeit gedeckt?
Von Dir, liebe IP erwarte ich im übrigen, dass Du nach der Diskussion bei Sachthemen Interwikilinks nur sehr zurückhaltend bearbeitest und höchstens dann ersatzlos streichst, wenn es einen angemessenen Wikidata-Eintrag gibt. Danke für Dein Verständnis.---<)kmk(>- (Diskussion) 18:03, 16. Sep. 2015 (CEST)Beantworten
Die Liste gibt es doch schon - das Ergebnis der Suchfunktion. Wird sogar viel schneller aktualisiert als eine statische Liste. Ansonsten wie oben schon gesagt: Oft lassen sich die Konflikte nicht einfach lösen. Die trivialen Fälle wurden schon vor langer Zeit von Bots erledigt, die nicht ganz so trivialen danach von Hand, übrig sind vor allem die Problemfälle. Solange Wikidata keine 1:n-Relationen zulässt, werden sich einige nicht auflösen lassen. --mfb (Diskussion) 21:55, 15. Sep. 2015 (CEST)Beantworten
Das glaub ich nicht. Spezial:Beiträge/YiFeiBot zeigt, dass genügend Interwikis übrig sind, die per Bot entfernt werden können. 94.218.177.215 22:08, 15. Sep. 2015 (CEST)Beantworten
Man sollte schon auch auseinanderhalten, warum interwiki-Links trotz Wikidata übriggeblieben sind. Wenn es unerledigte interwiki-Konflikte sind, trägt man mit ersatzloser Löschung nicht zur Lösung bei, sondern erschwert sie nur. Es gibt aber auch interwiki-Links, die immer schon regelwidrig waren, z. B. Links auf Unterabschnitte oder Weiterleitungen. Die sind früher teilweise von Bots weggeräumt worden, heute macht das standardmäßig niemand mehr. Erhaltenswürdig sind sie deswegen noch lange nicht. MBxd1 (Diskussion) 22:17, 15. Sep. 2015 (CEST)Beantworten
Alles was der Bot erwischt, braucht kein Mensch zu machen. Übrig bleiben eben genau die genannten Schwierigkeiten. --mfb (Diskussion) 22:28, 15. Sep. 2015 (CEST)Beantworten

Braucht diese Anfrage noch jemand? Sonst schließe ich die nach dem Wochenende. Viele Grüße, Luke081515 20:26, 8. Okt. 2015 (CEST)Beantworten

Anfrage ist noch aktuell, ja. Bitte einfach ersten Satz des Abschnitts erfüllen. 88.67.116.189 23:46, 16. Okt. 2015 (CEST)Beantworten

Kleine Formalkorrekturen

Hier befinden sich notwendige Korrekturen, die aber möglichst gebündelt durchgeführt werden sollten, darum wollte sich Xqt kümmern. Der Übersichtlichkeit her habe ich diese daher hier zusammengefasst. Viele Grüße, Luke081515 00:31, 3. Okt. 2015 (CEST)Beantworten

[0-9] x [0-9] → [0-9] × [0-9]

In ~10 000 Artikeln wird fälschlicherweise das x anstelle des × als Malzeichen verwendet. Mag das jemand per Bot korrigieren? --Leyo 17:26, 26. Mär. 2015 (CET)Beantworten

  1. Wenn man sowas macht, dann auch das Kreuzchen von zwei &nbsp; umgeben.
    • Dann würde man sogar noch den dahinter folgenden m oder cm mit &nbsp; anbinden.
  2. Grad kein Artikel verlinkt oder nutzt
  3. Das nur als Stichprobe; ich habe in WSTM schlechte Erfahrungen mit sowas gemacht, weil das nicht nur in Verlinkungen, sondern auch als Parameter für Infoboxen auftreten könnte.
  4. @c:Admin: Replacing in file:L'étrangère. Huile sur toile,, 65 x 50 cm.jpg ,, by single , would improve readability.
LG --PerfektesChaos 19:06, 26. Mär. 2015 (CET)Beantworten
Bezüglich x vs. × geht's in Kategorie:Patronenmunition bzw. Liste Handfeuerwaffenmunition ziemlich drunter und drüber. Ich wäre für die einheitliche Verwendung von × (unter Beibehaltung/Einrichtung der entsprechenden x-Weiterleitung). Bei Dateinamen (wo's standardmässig keine Weiterleitungen gibt) ist es ggf. sinnvoll, die Dateinamen so zu belassen. --Leyo 00:26, 29. Mär. 2015 (CET)Beantworten
Naja, man ruiniert mit sowas irgendwelche Dateinamen, ohne es zu merken (ggf. Vorlagenparameter), oder Computercode in bewusstem ASCII. Datei:Dorothé Jehoel, "Saltimbanque", kunststof, 320 x 200 x 200 cm, RWZI Dongemond - Oosterhout, 2006.jpg meint sicher „Kunststoff“. LG --PerfektesChaos 00:35, 29. Mär. 2015 (CET)Beantworten
= nl:Kunststof --Leyo 00:41, 29. Mär. 2015 (CET)Beantworten
@Leyo: Da ich eben gerade unten einen ähnlichen Auftrag hatte, was soll der Bot jetzt machen? x durch × ersetzen, oder noch mehr? Ich frag da lieber mal nach. Viele Grüße, Luke081515 00:17, 26. Mai 2015 (CEST)Beantworten
Bildeinbindungen und Links müsste dein Bot auslassen. Für zweiteres könnte ggf. das Ergebnis von Portal Diskussion:Waffen#Lemmata in Kategorie:Patronenmunition uneinheitlich abgewartet werden. --Leyo 01:12, 26. Mai 2015 (CEST)Beantworten
@Luke081515: Die oben genannte Diskussion ist abgeschlossen. IMHO steht einem Botrun nichts mehr im Weg. --Leyo 03:10, 11. Jul. 2015 (CEST)Beantworten

Ich bin da leider noch nicht weitergekommen, und hab leider momentan mit andere Aufgaben noch viel zu tun, die dauern wohl noch. Ich könnte es noch machen (Programm steht noch aus), aber wenn ein anderer Botbetreiber Lust hat, kann er es auch gerne Übernehmen, der wird wohl schneller sein ;). Viele Grüße, Luke081515 03:13, 11. Jul. 2015 (CEST)Beantworten

Könnte insource:/[0-9] x [0-9]/ sicherer gemacht werden, so dass Bildeinbindungen oder Titel bei Literaturangaben nicht erfasst werden? --Leyo 23:05, 15. Dez. 2015 (CET)Beantworten

Plenks entfernen

Lässt sich insource:/ \, [A-Za-z]/ weiter eingrenzen, so dass die Korrektur der Plenks automatisiert erfolgen könnte? Beispielsweise dürften Bildeinbindungen nicht angefasst werden. --Leyo 00:17, 11. Aug. 2015 (CEST)Beantworten

  • Keine Quelltextkommentare: Zeit des Nationalsozialismus, Dampflokomotive, FC Chelsea
  • Vermutlich keine Artikel zur Lautschrift und ähnlichen Themen: Pinyin#Auslaute
  • nicht direkt an URLs heranziehen: Nordamerika (der Link sollte natürlich besser formatiert werden)
  • größere Mengen an Sonderzeichen in der Nähe sind in der Regel ein Zeichen dafür, dass ein Bot sich fernhalten sollte, hier hätte ein Entfernen des Leerzeichens immerhin nichts verschlechtert aber auch nichts verbessert.
  • Nichts in mathematischen Formeln, Programmcode und Zitaten ändern.
Das waren nur die ersten 100 Treffer. --mfb (Diskussion) 00:34, 11. Aug. 2015 (CEST)Beantworten
Danke für deine Analyse! Ich sehe schon, das wird schwierig … --Leyo 00:50, 11. Aug. 2015 (CEST)Beantworten
Zumindest Bot-mäßig, ja. Wäre eventuell was für Benutzer:Aka? 129.13.72.195 12:46, 11. Aug. 2015 (CEST)Beantworten
Ich mache das schon ab- und zu mit. Für einen Bot ist das m.E. nicht geeignet, ich lasse mich aber gerne vom Gegenteil überzeugen :) -- Gruß, aka 12:56, 11. Aug. 2015 (CEST)Beantworten

Vllt macht das ja @Xqt:, der macht solche Korrekturen ja öfter. Viele Grüße, Luke081515 13:00, 11. Aug. 2015 (CEST)Beantworten

WSTM bietet zwar eine benutzerdefinierte Ersetzung an, aber ein ! gehört auch zur Tabellensyntax. Und Linkziele wie etwa schlecht buchstabierte Dateinamen werden von WSTM vor der Ersetzung geschützt, genauso wie math-Bereiche, Syntaxhighlight und alle Kommentare.
mail-re gelegentlich, hat erfreulicherweise niemand interessiert, lassen wir Frau Streisand ruhen.
Schönen Urlaub --PerfektesChaos 13:12, 11. Aug. 2015 (CEST)Beantworten
Hatte doch erst vor kurzer Zeit meinen Bot laufen lassen. Hat sich schon wieder was angesammelt? Mein Ersetzungsparameter sind noch da und ich kann jederzeit loslegen.  @xqt 21:34, 11. Aug. 2015 (CEST)Beantworten
@PerfektesChaos: ([^: ?|]) +(([,;:])|(?[^?])|(![^!])|(\\.[ \n])) (aus deiner verlinkten Seite) ist leider zu komplex für die Wikipedia-Suchfunktion.
@Xqt: Beziehst du dich auf das Entfernen der doppelten Leerzeichen (normal + geschützt)? Hast du solche Korrekturen kürzlich ebenfalls gemacht? --Leyo 00:01, 12. Aug. 2015 (CEST)Beantworten
Ja, einige  @xqt 08:22, 12. Aug. 2015 (CEST)Beantworten
einige = alle, deren Korrektur per Bot sicher genug waren?
Vielleicht könnte CamelBot von lustiger seth noch weitere Artikel korrigieren? --Leyo 16:21, 19. Aug. 2015 (CEST)Beantworten
gudn tach!
CamelBot parst den wikitext nicht, sondern macht eigentlich nur relativ stupide ersetzungen, siehe source code, weshalb mich die beispiele von mfb eigentlich auch eher Aka's einschaetzung teilen lassen. einen einfachen, wenn auch langen regulaeren ausdrueck einzusetzen, wuerde nur dann sinn machen, wenn man die false positives (fast) alle benennen kann. wenn das jemand kann, kann ich auch eine entsprechende ersetzungsvorschrift dafuer basteln, es sei denn xqt hat das bereits getan.
wie geht denn dein bot vor, xqt? parst der den text ein bissl oder ist er so "doof" wie CamelBot? und kuemmert er sich auf anfrage um die gesamte wikipedia oder haengt er auf den RCs? wenn die ersetzungsvorschrift mal da waere, koennte ich anbieten, zusaetzlich CamelBot auf den RCs arbeiten zu lassen. -- seth 22:02, 19. Aug. 2015 (CEST)Beantworten
Nein, ganz so stupid geht mein Bot nicht vor, da wird auch der Zusammenhang geprüft und die Ausnahmeliste ist lang, hier ab Zeile 88  @xqt 05:57, 20. Aug. 2015 (CEST)Beantworten
@Xqt: Da empfehle ich aber bei Zeile 220 <syntaxhighlight> und überhaupt und so.
@Lustiger seth: Ich empfahl schon mal, WSTM in einer JS-Umgebung des Servers laufen zu lassen. Auf Labs ist mindestens node.js vorhanden. Linkservice
LG --PerfektesChaos 10:18, 25. Aug. 2015 (CEST)Beantworten
gudn tach!
@PerfektesChaos: ich erinnere mich. ich hatte nur noch keine zeit, mir anzuschauen, wie ich in perl den js-kram einbinden koennte. schien mir kompliziert zu sein. den python-code habe ich mir bisher auch nur kurz angeschaut. koennte aber sein, dass das leichter zu uebernehmen bzw. einzubinden waere. -- seth 23:35, 29. Aug. 2015 (CEST)Beantworten

Gelegentlich wird in Wikilinks und URLs ein html-Kommentar nur eingefügt, um einen Zeilenumbruch zu erreichen. Dieses Vorgehen hat einige Nachteile für andere Benutzer, insbesondere bei langen Artikeln, da dadurch das Auffinden einer URL deutlich erschwert wird. Konstruktionen wie

Beispiel für URL

http://example.org/das<!--
-->isteinbeispiel.html
oder 
http://example.org/das<!-- -->isteinbeispiel.html

Beispiel für Wikilink:

[[Wikipedia:Bots<!--
-->/Anfragen]]
oder 
[[Wikipedia:Bots<!--  -->/Anfragen]]

Wäre schön, wenn jemand diese unnötige und störende HTML-Kommentare die nur Withespace enthalten entfernen könnte. Frohes Schaffen — Boshomi ☕⌨☺ Defekte URLs - Hilfe gesucht12:06, 15. Mai 2015 (CEST)Beantworten

@Boshomi: Meinst du, man könnte das auch auf nicht Links ausweiten, wo nur Whitespace drinne ist? Viele Grüße, Luke081515 18:41, 15. Mai 2015 (CEST)Beantworten
In Vorlagen ist das manchmal sinnvoll (nicht in URLs), da sonst teilweise gigantisch lange komplizierte Absätze ohne Struktur entstehen. Es wird zwar meiner Meinung nach viel häufiger angewandt als es sinnvoll ist, aber pauschal alles zu entfernen ist keine Verbesserung. --mfb (Diskussion) 18:45, 15. Mai 2015 (CEST)Beantworten
@Mbf: Die Anfrage ist natürlich für den ANR gemeint. Bei Vorlagen sind Zeilenumbrüche wegen der Lesbarkeit sinnvoll.
@Luke081515: Natürlich, aber die Bearbeitung ist vorläufig einfacher, wenn man das getrennt hält. Die Masse sind wohl Whitespace-Kommentare. Bei den anderen könnten auch einige False-Positive dabei sein.  Frohes Schaffen — Boshomi ☕⌨☺ Defekte URLs - Hilfe gesucht18:50, 15. Mai 2015 (CEST)Beantworten
Ich frage mich gerade, wie man die Suche eingrenzen könnte, ohne eine Mio. Artikel zu durchforsten.  @xqt 14:52, 16. Mai 2015 (CEST)Beantworten
Die Abfrage ist doch simpel (Peal-reg-expr o. ä.)). Und wenn man es nicht in einer Nacht erledigen will, hängt man es an irgendeinen beliebigen Bot dran der so oder so irgendwann an allen Seiten vorbei kommt. Pfiffigerweise ein Bpt, der den Eingang durchforstet. -- SummerStreichelnNote 19:53, 16. Mai 2015 (CEST)Beantworten
Ich finde ca. 1500 Artikel, die auf /<!--\s*-->/s passen, siehe Benutzer:Krdbot/Whitespacekommentare. --Krd 20:37, 16. Mai 2015 (CEST)Beantworten
Sehr schön! Eine hervorragende Grundlage für einen 4-Jahresplan. ein lächelnder Smiley  -- SummerStreichelnNote 20:53, 16. Mai 2015 (CEST)Beantworten

{{InuseBot|1=Xqbot|2=Xqt}} @Xqt: Ist er durch? Viele Grüße, Luke081515 19:17, 20. Mai 2015 (CEST)Beantworten

nö. Wegen Einspruch/Rückfragen auf meiner DS hatte ich die weitere Bearbeitung gestoppt. Im Moment bin ich unterwegs und gab auch keinen Vollzugang auf meinen Server. Das muss also vielleicht bis zum Wochenende warten.  @xqt 21:11, 20. Mai 2015 (CEST)Beantworten

Ich glaube ich frage nochmal. @Xqt: Wie siehts aus? ein SmileysymbolVorlage:Smiley/Wartung/;-) . Viele Grüße, Luke081515 22:41, 15. Sep. 2015 (CEST)Beantworten

Leerzeichen zwischen Einzelnachweisen entfernen

Laut insource:/\<\/ref\> +\<ref/i gibt es aktuell ~8000 Artikel mit unerwünschten Leerzeichen zwischen Einzelnachweisen. IMHO sollten diese überall entfernt werden können. Wessen Bot könnte dies übernehmen? --Leyo 01:46, 17. Okt. 2015 (CEST)Beantworten

Ich tippe mal auf @Xqt:, der könnte dann die anderen gleich mitmachen. Viele Grüße, Luke081515 01:59, 17. Okt. 2015 (CEST)Beantworten
Wahrscheinlich können es die meisten. --Leyo 13:41, 17. Okt. 2015 (CEST)Beantworten
Die ~1000 insource:/\<\/ref\> *[.,:;] *\<ref/i, also mit Satzzeichen dazwischen, könnten auch gleich miterledigt werden. --Leyo 20:10, 17. Okt. 2015 (CEST)Beantworten
Die mit Satzzeichen bitte nicht ohne weitere Prüfung. Gleich der zweite Treffer (Kuba) wäre eine Verschlechterung. Der erste Einzelnachweis bezieht sich auf das Wort, der zweite auf den ganzen Satz. Der Punkt dazwischen hat durchaus seine Berechtigung, und ganz ohne Punkt ist es komplett falsch. --mfb (Diskussion) 20:17, 17. Okt. 2015 (CEST)Beantworten
Na gut, dann die ohne Leerzeichen nicht. --Leyo 21:41, 17. Okt. 2015 (CEST)Beantworten

d-nb.info

In Einzelnachweisen gibt es etliche nackte Links wie http://d-nb.info/969591713: insource:/\>http\:\/\/d-nb.info\/[0-9]/
IMHO könnten diese per Bot in {{DNB|…}} geändert werden. --Leyo 22:11, 19. Sep. 2015 (CEST)Beantworten

Oder spricht etwas dagegen? Ich pinge zur Sicherheit mal den Ersteller der Vorlage, Benutzer:Doc Taxon, an. --Leyo 21:45, 17. Okt. 2015 (CEST)Beantworten
Ich würde das sonst gleich umsetzen, ich wäre soweit. Viele Grüße, Luke081515 23:58, 17. Okt. 2015 (CEST)Beantworten
ja, macht nur da Sinn, wo keine ISBN drin ist. Ansonsten den nackten Link rausschmeißen. Danke, – Doc TaxonDiskussionWiki-MUCWikiliebe?! 00:02, 18. Okt. 2015 (CEST)Beantworten
also @Luke081515: will hier wohl mit einer unvollständigen Liste arbeiten, ich aber empfehle, die Einträge auf vorhandene ISBN zu überprüfen. Stehen diese drin, sind die DNB-Links, ob nackig oder nicht, obsolet, und sollten damit entfernt werden. Vielen Dank, – Doc TaxonDiskussionWiki-MUCWikiliebe?! 00:26, 18. Okt. 2015 (CEST)Beantworten
@Boshomi: könntest Du die Weblinkliste bezüglich der ISBN-Nummern ausfiltern. Dann hat der Luke081515Bot das richtige Futter. ein SmileysymbolVorlage:Smiley/Wartung/zwinker Doc TaxonDiskussionWiki-MUCWikiliebe?! 00:36, 18. Okt. 2015 (CEST)Beantworten
Nach dem Keep-it-simple Prinzip hätte ich das lieber zuvor in der Vorlage. Vor dort weg kann ich mir einfacher die notwendigen Wartungslinks aufbauen. Grundsätzlich ist das aber relativ einfach möglich, da ISBN bzw EAN auf der DNB-Seite leicht auslesbar sind. In meinem Zeitplan bin ich für die nächsten 10 Tage gut ausgelastet (Webcitation usw.), also ist genug Zeit die DNB-Vorlage konsequent einzusetzen, ohne manuell auf das Vorhandensein von ISBN achten zu müssen. Frohes Schaffen — Boshomi ☕⌨☺ Defekte URLs - Hilfe gesucht01:10, 18. Okt. 2015 (CEST)Beantworten
Vielleicht sollte man dazu erst einmal ein paar Leute befragen, die sich damit auskenne, bevor man einfach den Bot da drüber jagt, ob es Einwände gibt oder auf was man aufpassen sollte. Daher: @Gymel, Silewe, Kolja21:, die haben Ahnung. Und zwar viel. --Informationswiedergutmachung (Diskussion) 01:33, 18. Okt. 2015 (CEST)Beantworten

Nachtrag zum Suchlink oben: Es gibt auch noch diese Links: insource:/\>http\:\/\/d-nb.info\/gnd/ --Leyo 02:12, 18. Okt. 2015 (CEST)Beantworten

von den /gnd/ Daten gibt es sehr viele, rund 370.000 Verlinkungen im ANR; die Variane [0-9]+ kommt auf ca 20.000 Verlinkungen im ANR, wobei das vor allem Bücher und Zeitschriften sind. Für die 2. Variante könnte man da auch gleich alle notwendigen Daten für ordentliche Quellenangaben rausziehen. Frohes Schaffen — Boshomi ☕⌨☺ Defekte URLs - Hilfe gesucht02:24, 18. Okt. 2015 (CEST)Beantworten
Solange es nur um die Umwandlung von http://d-nb.info/969591713{{DNB|…}} geht, sehe ich kein Problem. Die ISBN dagegen kann sich auf unterschiedliche Auflagen beziehen. (Die Angaben würden daher nicht 1:1 übereinstimmen.) Da müsste man schon intellektuell (= per Hand) überprüfen, auf welche Aussage sich der betreffende Einzelnachweis bezieht. --Kolja21 (Diskussion) 04:09, 18. Okt. 2015 (CEST)Beantworten
Meine Vorgehensweise währe da ähnliche wie ich das derzeit bei den Botaufträgen für URL-Ersetzungen handhabe: Ich würde das zuerst lokal auf meinem PC einlesen und jene Tabellenzeilen in den Auftrag schreiben, von denen ich mir aufgrund der Datenanalyse sicher bin, dass der Bot-Auftrag in sinnvolles Resultat in den Artikeln liefert, ohne dass der Botbetreiber die Daten nochmals auf inhaltliche Richtigkeit überprüfen muss. Bei dem Auftrag muss man sich klar sein, dass es sich um WP:Einzelnachweise handelt, und folglich an irgend einer Stelle eine inhaltliche Kontrolle notwendig ist.  Frohes Schaffen — Boshomi ☕⌨☺ Defekte URLs - Hilfe gesucht10:17, 18. Okt. 2015 (CEST)Beantworten
Blick in die Zukunft: Es wäre offensichtlich sinnvoller, würden die Daten nicht zuerst lokal auf einem privaten PC ausgewertet, sondern es wäre viel besser, die Daten würden auf wikidata liegen. Da wir bei Einzelnachweisen wohl zumindest in den nächsten 20 Jahren keine direkte Einbindung von Wikidata wollen, und ich persönlich auch nichts davon halte, dass wir lokale Benutzer nach wikidata zu leiten, wo sie zuerst die relativ komplexen Datenstrukturen überblicken müssten, bevor sie dort sinnvoll editieren können, wäre das sowieso ein Bot-Dauerauftrag. Der lokale Benutzer schreibt dann einfach {{DNB|########}} in den Artikel und der Bot expandiert dann lokal die Vorlage {{DNB|ID=#######|titel=titeltext|jahr=####|verlag=verlagtext,…|anzeige=nur ID/alles}}. Ändert dann Monate oder Jahre später ein Benutzer Teile der Parameter der Vorlage, würde das in einer Wartungskategorie auffallen, und eine manuell initiierter Synchronisierungsmechanismus würde gestartet.  Frohes Schaffen — Boshomi ☕⌨☺ Defekte URLs - Hilfe gesucht10:17, 18. Okt. 2015 (CEST)Beantworten

Wenn bis montag es kein Eispruch gibt, ersetze ich dann alle, die hier stehen. Viele Grüße, Luke081515 16:57, 18. Okt. 2015 (CEST)Beantworten

Bis das hier ausdiskutiert ist, machst Du gar nichts. Du kannst uns hier kein Ultimatum setzen. – Doc TaxonDiskussionWiki-MUCWikiliebe?! 19:24, 18. Okt. 2015 (CEST)Beantworten
Habe ich da irgendwas übersehen? Bei den Links nach dem Muster http://d-nb.info/\d+ ist die Sache doch völlig klar. Der Einwand von Kolja21, dass dort manchmal eine ISBN zu einer Schriftreihe angezeigt wird, aber oft die Schriftreihe selbst gemeint ist, war mir bekannt. In den meisten Fällen sollte das aber anhand der ISSN und am Veröffentlichungsrhythmus erkennbar sein. Die Links in der Liste sind unkritisch, da nur der Status quo verbessert wird. Frohes Schaffen — Boshomi ☕⌨☺ Defekte URLs - Hilfe gesucht20:16, 18. Okt. 2015 (CEST)Beantworten
@Luke081515, Doc Taxon: Nachdem sich hier niemand mehr gemeldet hat, bitte ich um Umsetzung des Auftrags. Exkurs: diese Liste Wikipedia:WikiProjekt Weblinkwartung/Domains im Fokus/giftbot 1000 verspricht jede Menge Arbeit für den Bot. Ich bin gerade dabei die ersten Liste auf Basis dieser Tabelle zu erstellen. Frohes Schaffen — Boshomi ☕⌨☺ Defekte URLs - Hilfe gesucht13:04, 24. Okt. 2015 (CEST)Beantworten
ja, kann umgesetzt werden, hab auch noch mal geschaut. @Boshomi: Vielen Dank für Deine großartige Fleißarbeit in der Weblinkwartung. – Doc TaxonDiskussionWiki-MUCWikiliebe?! 15:32, 24. Okt. 2015 (CEST)Beantworten

((Erledigt|1=Luke081515|2=16:06, 24. Okt. 2015 (CEST)))Beantworten

Vielen Dank für die teilweise Abarbeitung. Unter insource:/\>http\:\/\/d-nb.info\/[0-9]/ und insource:/\>http\:\/\/d-nb.info\/gnd/ gibt es IMHO noch etliche Treffer, die ebenfalls umgestellt werden können. Oder sehe ich da etwas falsch? --Leyo 23:14, 24. Okt. 2015 (CEST)Beantworten
Mit dieser Suche finde ich 40 Seiten: insource:/\>http\:\/\/d-nb.info\/[0-9]+/, das Problem dabei, ich weiß nicht ob das noch bottauglich wäre. Die gnd-Links sind ein eigenes Kapitel, da braucht es auch eine andere Vorlage. Frohes Schaffen — Boshomi ☕⌨☺ Defekte URLs - Hilfe gesucht00:30, 25. Okt. 2015 (CEST)Beantworten

Umstellung der Website www.regierung-mv.de

Hallo, die Website der Landesregierung von Mecklenburg-Vorpommern http://www.regierung-mv.de wurde auf ein neues Layout umgestellt, sodass viele defekte Weblinks entstanden sein dürften. Eine einfache URL-Änderung bei allen Links ist dabei vermutlich nicht möglich. Kann ein Bot bitte zumindest die Kategorie:Mecklenburg-Vorpommern mit ihren Unterkategorien crawlen und alle Artikel mit Links auflisten, die auf http://www.regierung-mv.de* lauten, damit die Handarbeit losgehen kann? Viele Grüße--Marcel Rogge (Diskussion) 23:41, 19. Okt. 2015 (CEST)Beantworten

Ich habe dir Wartungsliste aufgebaut: Wikipedia:WikiProjekt Weblinkwartung/Toter Link/Liste 2015 regierungmv Die Wartungsliste wird von mir aktuell gehalten. Bitte nimm diese Wartungsliste in deine Beo auf, damit du sehen kannst, wann ich aktualisiere. Frohes Schaffen — Boshomi ☕⌨☺ Defekte URLs - Hilfe gesucht00:34, 20. Okt. 2015 (CEST)Beantworten
Vielen Dank--Marcel Rogge (Diskussion) 00:40, 20. Okt. 2015 (CEST)Beantworten
Für das Abarbeiten solcher Listen ist Benutzer:TMg/weblinkChecker rechtnützlich. Damit bekommts du ein Weltkugelsymbol mit einer Schreibfeder in die Symbolliste, hinter der sich ein praktisches Bearbeitungsformular mit einer Menge Hinergrundintelligenz verbirgt. Das Tool lässt sich auch in der sehr praktischen und empfehlenswerten Toolsammlug Fliegelflagel aktivieren. Frohes Schaffen — Boshomi ☕⌨☺ Defekte URLs - Hilfe gesucht00:54, 20. Okt. 2015 (CEST)Beantworten
Ok, danke auch dafür. Dazu musste ich erstmal die Symbolleiste aktivieren, weil ich die sonst nie benutze. Viele Grüße--Marcel Rogge (Diskussion) 01:31, 20. Okt. 2015 (CEST)Beantworten

Korrektur Seitenbereiche

Die mittels insource:/\| *pages *= *[0-9]+ *\- *[1-9]/ gefundenen falsch formatierten Seitenbereiche (mit Binde- statt Bis-Strich, unnötige Leerzeichen) sollten per Bot korrigiert werden. Dieser Botrun braucht nicht mit obigen gebündelt zu werden. --Leyo 20:49, 28. Okt. 2015 (CET)Beantworten

Wäre es nicht überhaupt sinnvoll einen Bot zu installieren, der nach page_id modus x alle Seiten durchläuft und alle nicht zeitkritischen kleinen Änderungen zusammenfasst? Das wäre dann wenigstens ein systematischer Ansatz, der nicht von zufälligen anderen Läufen abhängig ist.
Je nach Dringlichkeit könnte x ein Vielfaches von 7 sein (28,91,182,364,728) Auf diese Weise würde sichergestellt, dass sich Botedits für einen Artikel auf jeweils einen (lange im Voraus bekannten) Wochentag konzentrieren, und somit die Beobachtungslisten der Benutzer geschont werden. Frohes Schaffen — Boshomi ☕⌨☺ Defekte URLs - Hilfe gesucht21:44, 28. Okt. 2015 (CET)Beantworten
Ich höre immer Beos schonen, ist ja auch sinnvoll, keine Frage. Klar machts auch Sinn, die bearbeitungen zu konzentrieren, aber wenn der Bot ein Botflag nutzt, kann der Benutzer zumindest leicht die edits ausblenden. Viele Grüße, Luke081515 22:05, 28. Okt. 2015 (CET)Beantworten
IMO könnte man solche kosmetischen Änderungen schon irgendwo sammeln (analog zu c:Commons:File description page regular expressions) und dann periodisch durchführen. Diese Altlasten hier sollten aber erst einmal in einem Run eliminiert werden. Mit Botflag sehe ich wie Luke kein Problem. --Leyo 22:43, 28. Okt. 2015 (CET) PS. Die mittels insource:/ S\.( )* *[0-9]+ *\- *[0-9]/ ausserhalb von Zitationsvorlagen gefundenen Falschformatierungen könnten gleich mitkorrigiert werden, auch wenn wohl wenige Artikel beide Typen aufweisen.Beantworten

Ich warne hier vor einer automatischen „Korrektur“.

  • Es gibt Seitenzahlen, in die das Kapitel integriert ist: S. 5-14 ist die 14. Seite des 5. Kapitels.
  • Im Treffer zu Haushund findet sich pages=119-26 – typisch für die Übernahme aus gedruckten Zeitschriften und deren Übernahme in die Publikationsdatenbanken. Das würde noch verschlimmert.

So wichtig ist das nun nicht irgendwo tief unten in den ungelesenen Endnoten, als dass man hier automatisierte Verschlimmbesserung lostreten muss, um eine typografische Petitesse durchzudrücken. Einfach so lassen; es mag manuell korrigieren, wer will, und ich verbessere es mit WSTM für die Lit-Vorlage gelegentlich unter menschlicher Aufsicht, falls die zweite Zahl größer ist als die erste. Was auch noch nicht gegen die abschnittsweise Seitennummerierung hilft.

LG --PerfektesChaos 12:54, 29. Okt. 2015 (CET)Beantworten

Beim ersten Punkt hast du teilweise Recht. Allerdings kommt das IMHO sehr selten vor. Und wenn, dann nicht mit Leerzeichen vor und nach dem Strich.
Beim zweiten irrst du. Es handelt sich um einen Seitenbereich, wie unter DOI:10.1002/jez.b.21116 festgestellt werden kann. Am besten wäre „119–126“, aber auch „119–26“ ist bereits eine Verbesserung gegenüber „119-26“. --Leyo 13:01, 29. Okt. 2015 (CET)Beantworten
Nee, dann lieber 119-26 als ASCII belassen; dann zieht es noch Aufmerksamkeit auf sich. Wenn da erstmal der Bis-Strich drin ist, findet es auch dein RegExp nicht mehr und ist verhudelt. Wir schreiben korrekt 119–126, oder wir lassen die Finger davon. Einfach mal nix machen; das ist nicht der Fließtext des Artikels, und wir haben im Bereich Zitationsformatierung -zigtausende viel viel schlimmerer Formate als die Frage, ob da untenrum ein kleiner oder großer Strich stünde. Wenn der Bot dann auch noch sinnentstellende Fehler in den ersten Fall hineinverballhornt, gibt es nur vermeidbaren Zoff mit den Autoren. LG --PerfektesChaos 13:54, 29. Okt. 2015 (CET)Beantworten
Ich nehme deine Meinung zur Kenntnis, bleibe jedoch bei meiner. Man/ich kann diese Ausnahmefälle (z.B. insource:/\| *pages *= *[0-9]{3} *\- *[0-9]{1,2} *\|/) ja halbautomatisch abarbeiten, inkl. Ergänzung der weggelassenen Ziffern. Bereits typografisch korrigierte gibt's übrigens deutlich mehr (z.B. insource:/\| *pages *= *[0-9]{3}–[0-9]{1,2} *\|/). --Leyo 16:57, 29. Okt. 2015 (CET)Beantworten
Halbautomatisch wäre nicht das Problem; ich kann dir rund eine halbe Million Seiten nennen, wo man halbautomatisch was dran machen könnte. Das hier ist dagegen Luxusproblem. Du kannst ja mittels entsprechender RegExp die Seiten suchen, wo in irgendeinem Format links von einem Bindestrich drei oder vier und rechts nur eine oder zwei Ziffern stehen, und davor Seiten oder S. oder pages= etc. Und bei einer solchen Berichtigung darf es dann auch der richtige Strich werden. Etwas Gespür für die Publikationen und ihre Paginierung und die Herkunft der Zitation ist von Vorteil. Vornamen vor Nachnamen fände ich dann als nächste Stufe passend; kann gleich miterledigt werden und ist bei diesen Kandidaten oft zu finden. LG --PerfektesChaos 17:12, 29. Okt. 2015 (CET)Beantworten
Die Fälle mit weniger Ziffern nach dem Bindestrich bei insource:/\| *pages *= *[0-9]+ *\- *[1-9]/ sollten abgearbeitet sein. Nun steht einer automatischen Korrektur mit Botflag nichts mehr im Weg. --Leyo 00:05, 31. Okt. 2015 (CET)Beantworten
Man kann Botedits ausblenden, blendet damit aber auch mögliche vorherige Änderungen anderer Benutzer aus. Total unsinnige Umsetzung finde ich. --mfb (Diskussion) 13:36, 29. Okt. 2015 (CET)Beantworten
@Mfb: Ne, da hast du wohl was in den falschen Hals bekommen. Das ist markbotedits was Rollback mit Botflag erlaubt, und nachträglich dem vorherigen Edit auch eins verpasst. Bots nutzen aber das Recht bot was sich nur auf den aktuellen edit auswirkt, der Rest bleibt ohne. Viele Grüße, Luke081515 13:41, 29. Okt. 2015 (CET)Beantworten
Nehmen wir doch Gut Adolphshof als Beispiel: Heute IP-Edits, danach ein Botedit. Nehme ich die Seite in die BEO auf, sehe ich sie ganz normal. Blende ich aber Botedits aus, verschwindet die Seite komplett von der BEO. Dass eine IP dort etwas bearbeitet hat, verpasse ich komplett wenn ich nicht zwischen 12:58 und 13:30 die Beobachtungsliste durchschaue. --mfb (Diskussion) 13:56, 29. Okt. 2015 (CET)Beantworten
@Mfb: Das ist jetzt aber seltsam. Ich sehe die IP Edits nämlich bei hidebots=1 immer noch. Viele Grüße, Luke081515 15:26, 29. Okt. 2015 (CET)Beantworten
Bei mir bleibt die Seite auch angezeigt.  @xqt 15:34, 29. Okt. 2015 (CET)Beantworten
Ja, das wäre das gewünschte Verhalten... aber selbst wenn ich eigenes .css und .js entferne (bzw. nur irrelevante Elemente behalte), verschwindet die Seite. Die Seite verschwindet sogar komplett aus dem Quelltext, liegt also an der Software. Habt ihr vielleicht irgendwelche Extrascripte die das reparieren? Vielleicht sollten wir die Diskussion verlegen, mit dem Botantrag hat das nichts zu tun. --mfb (Diskussion) 15:35, 29. Okt. 2015 (CET)Beantworten
Einstellungen -> Beobachtungsliste -> "In der Beobachtungsliste alle und nicht nur die aktuellsten Änderungen anzeigen". Zeigt dann auch die vorherigen an, aber immer, egal ob der aktuellste herausgefiltert ist oder nicht. Der Umherirrende 18:40, 29. Okt. 2015 (CET)Beantworten
Ach so, ja, das ist eine Einstellung die ich ziemlich schnell deaktiviert habe, weil meine Beobachtungsliste dann praktisch nur noch WP-Seiten hätte (Auskunft&co) und ich die Artikel nicht mehr finde. --mfb (Diskussion) 20:05, 29. Okt. 2015 (CET)Beantworten
Nicht, wenn du das Tool von PerfektesChaos verwendest, wie ich es in der en-WP mache (siehe en:User:Leyo/common.js, unten). --Leyo 23:23, 29. Okt. 2015 (CET)Beantworten

insource:/\| *Seiten *= *[0-9]+ *− *[1-9]/ (mit Minuszeichen statt Bis-Strich) gibt's auch noch. --Leyo 21:55, 25. Nov. 2015 (CET)Beantworten

Die Fälle sind erledigt bis auf einen unklaren Fall. 188.99.191.230 21:03, 5. Dez. 2015 (CET)Beantworten
Danke! Den letzten Fall habe ich ebenfalls geklärt. Oben ist jedoch noch vieles offen. --Leyo 22:05, 6. Dez. 2015 (CET)Beantworten

Wiktionary: Übernahme von Einträgen einer Kategorie in eine Liste

Hallo,

kann jemand die Einträge der Kategorie:Familienname per Bot in die Liste wikt:Verzeichnis:International/Nachnamen eintragen lassen? Siehe auch diese Diskussion. Schöne Grüße --Yoursmile (Diskussion) 16:06, 31. Okt. 2015 (CET)Beantworten

Traut sich da niemand ran? Schöne Grüße --Yoursmile (Diskussion) 17:55, 4. Nov. 2015 (CET)Beantworten
Tut mir leid, ich würde es normalerweise gerne machen, aber ich hab momentan zuz viel noch von Mai (!) in der Warteliste, und irgenndwann muss die auch mal kleiner werden, um es als Informatiker zu sagen: Es sollte eher eine Queue sein, kein Stack ein lächelnder Smiley , daher würde ich das wohl nicht machen, würde wohl zulange dauern. Aber vllt hilft jemand anderes? Viele Grüße, Luke081515 19:39, 4. Nov. 2015 (CET)Beantworten
Stichprobenartig: Es scheinen nicht viele zu fehlen, zumindest bei A-B. Eine Liste zu erstellen ist einfacher, wenn dann jemand bereit ist das einzutragen kann ich das machen. --mfb (Diskussion) 21:22, 4. Nov. 2015 (CET)Beantworten
@Mfb: Liste aller Cat Members? Das geht fix, würde ich wohl machen. Viele Grüße, Luke081515 21:47, 4. Nov. 2015 (CET)Beantworten
Bitte, hier die Liste. Mfb, wenn du fertig bist, kannst du SLA stellen, danke und Viele Grüße, Luke081515 21:58, 4. Nov. 2015 (CET)Beantworten
Das ist der schnellste Teil :p. Ich habe die Liste auf das reduziert, was bei wiktionary nicht eingetragen ist, ist rund die Hälfte. Offenbar war bei A... schon jemand gezielt aktiv, aber bei anderen Buchstaben weniger. Geht wohl automatisiert schneller, aber man müsste sich Gedanken machen wie man mit dem Format der vielen Einzellisten umgeht. --mfb (Diskussion) 22:39, 4. Nov. 2015 (CET)Beantworten
Ich habe die beiden Listen vereinigt und blind nach Alphabet sortiert. Dadurch sind alle Teillisten jetzt richtig, allerdings sind die Überschriften und die Tabellenformatierung verloren gegangen. Die lassen sich von Hand wieder an die richtige Stelle setzen. @Yoursmile: Siehe Benutzer:Luke081515/KatName, mit etwas manueller Nacharbeit hast du die kombinierte Tabelle. --mfb (Diskussion) 22:51, 4. Nov. 2015 (CET)Beantworten
Hallo, danke schon mal für eure Mühe. Ja, bei dem Buchstaben A war jemand dabei. Es ging darum, die manuelle Übertragung einer Maschine abzunehmen. Dachte, dass das nicht so umständlich wäre. Aber wenn das nicht geht, belassen wir es dabei. Schöne Grüße --Yoursmile (Diskussion) 23:41, 4. Nov. 2015 (CET)Beantworten
@Yoursmile: Was heißt hier "wenn das nicht geht"? Die vorbereitete Seite braucht noch ein paar Minuten manuelle Nacharbeit dann ist die Liste fertig. Für grob 2000 neue Einträge ist das doch keine schlechte Geschwindigkeit. --mfb (Diskussion) 16:18, 5. Nov. 2015 (CET)Beantworten

{{Erledigt|1=<span style="text-shadow:#0000FF 1px 1px 2px; class=texhtml">[[Benutzer:Luke081515|Luke]][[BD:Luke081515|081515]]</span> 13:34, 5. Nov. 2015 (CET): Wohl erledigt}}

Einträge in Nekrologen

Hallo,

ich weiß nicht, ob das hier der richtige Anlaufpunkt ist, aber ein anderer ist mir nicht eingefallen. MerlBot ist netterweise so freundlich, mir regelmäßig auf meiner Unterseite überarbeitungswürdige Seiten aufzulisten. Dabei tauchen auch regelmäßig fehlende Einträge in Nekrologen auf. Wenn man sich die Nekrologe dann anschaut, sind diese oft etwas unübersichtlich und oft auch nicht alphabetisch sortiert. Nun meine Frage: Ist es möglich, dass es Bot regelmäßig nachts die Nekrologe überprüft und anhand der Personendaten aus den Artikeln diese aktuell hält? Ich denke da an soetwas wie es bei den Listen der Biografien. Ob soetwas möglich (und auch gewollt) ist, weiß ich nicht. Ich bitte um eure Meinungen. --Der Buckesfelder  Disk.  bewerten  E-Mail 15:35, 4. Nov. 2015 (CET)Beantworten

Also wenns nix gibt, was dagegen spricht, fragen wir doch mal @APPER:, mE würde es sich dann, wenn er Lust hat, mehr lohnen, ein bestehendes Skript anzupassen, als eins neu zu schreiben, Viele Grüße, Luke081515 16:40, 4. Nov. 2015 (CET)Beantworten
Was meinst du APPER? --Der Buckesfelder  Disk.  bewerten  E-Mail 15:25, 11. Nov. 2015 (CET)Beantworten
Die Schwierigkeit besteht darin, bestehende Einträge beizubehalten. Zur Erzeugung gibt es schon lange ein Script (Beispiel: 1920). Zur Integration der bestehenden Einträge (z.B. Rotlinks) bin ich bisher nicht gekommen. --APPER\☺☹ 17:49, 11. Nov. 2015 (CET)Beantworten
Das Skript ist gut, aber es erzeugt zwischen der Einleitung und der ersten Überschrift eine Leerzeile zu viel. 147.142.158.65 12:07, 13. Nov. 2015 (CET)Beantworten
@APPER: Ja, das Skript ist schön und gut, aber wie du schon gesagt hast, es fehlen die Rotlinks und doch auch bestehende Einträge oder? Ich fände es hilfreicher, wenn ein Bot diese Nekrologslisten aus den Personenseiten pflegen würde. Man könnte dann ja noch zum Beispiel eine Seite erstellen, auf die zusätzliche Daten für Rotlinks aufgeführt werden. Oder irgendwie sowas. --Der Buckesfelder  Disk.  bewerten  E-Mail 12:23, 20. Nov. 2015 (CET)Beantworten

Bot-Suche/Hinweis gewünscht

In etwa 1500 Artikeln (zumeist in Artikeln über Autorennen, sportliche Wettkämpfe, Konzerte u.ä.) findet man eine falsche Verwendung des Adjektivs "diesjährige/er". Kann man da nicht mal mit einem Bot drübergehen, und in die Diskussionsseite so etwas wie "Bitte ändern, weil das nachträglich immer jenes Jahres heißen muss und selbst dann, wenn es das aktuelle Jahr betrifft, ist es im nächsten Jahr schon veraltet." einbauen? Wenn ich die Artikel manuell ändere, lernen diejenigen Autoren es ja nie...--Mideal (Diskussion) 16:29, 9. Nov. 2015 (CET)Beantworten

Klingt wie geschaffen für Aka. –Queryzo ?! 16:32, 9. Nov. 2015 (CET)Beantworten
Das können bestimmt auch andere. --Leyo 22:24, 20. Nov. 2015 (CET)Beantworten
@Mideal: Kannst du ein paar Beispiele von betroffenen Artikeln angeben? --Leyo 16:39, 25. Nov. 2015 (CET)Beantworten
@Leyo: ? Einfach mal Volltextsuche "in diesem Jahr" nur in Artikeln, allein damit gibt es über 15000 Ergebnisse Liste der Nummer-eins-Hits in Österreich (1973), "Liste der mexikanischen Kinofilme...", "Bob-Weltmeisterschaften...", Magdalenenfest. Hinzu kommen "in jenem Monat/Jahrzehnt/Jahrhundert" und "diesjährige(/m/n/r)", "demnächst" u.ä. Wendungen wie "wird ....sein" 8die sich auf beim Editieren aktuelle Entwicklungen/zukünftige Ereignisse beziehen und die Verwendung von "nächsten Monat" muss man wohl oder übel manuell sichten (letzteres ist n.m.M. meist korrekt verwendet).--Mideal (Diskussion) 16:34, 26. Nov. 2015 (CET)Beantworten
Liste der Nummer-eins-Hits in Österreich (1973) ist ein Beispiel, bei dem nichts zu ändern ist. "In diesem Jahr" bezieht sich eindeutig auf das unmittelbar zuvor genannte Jahr 1973. Auch "in jenem Monat" etc. sollte meistens unproblematisch sein. "diesjährig" etc. ist häufiger falsch. "wird ... sein" hat idealerweise die Vorlage:Zukunft, sofern eine Änderung zu erwarten ist ("Alpha Centauri wird in 25000 Jahren näher als Proxima Centauri sein" braucht keinen Hinweis). --mfb (Diskussion) 16:56, 26. Nov. 2015 (CET)Beantworten

Auf zahlreichen Seiten im Buddhimus bereich gibt es Linkverweise auf die Webseite accesstoinsight.org. Da der Ausbau der Seite eingeschänkt ist und die Wartung nur beschränkt erfolgt und auch diverse Webseiten nur mehr über Umleitungen oder Ersatzseiten, bestünde die Möglichkeit die Links auf die zweisprachige, weiterentwickelte Tochterseite zugangzureinsicht.org (ZzE) bzw. accesstoinsight.eu auszubessern. Der Ast der Links ist im Inneren gleich und sieht z.B. so aus:

"original (englisch)": [http://accesstoinsight.org/lib/authors/thanissaro/bmc2/bmc2.ch20.html] (führt zu zwei Umleitungen und dann zu einem Link für die Möglichkeit des Downloads eines Pdfs statt der ursprünglichen Seite, des weiteren andere Version)

"englisch (zze)": [http://zugangzureinsicht.org/html/lib/authors/thanissaro/bmc1/bmc2.ch20_en.html]

oder aus Umleitung: [http://zugangzureinsicht.org/lib/authors/thanissaro/bmc2/bmc2.ch20_en.html]

oder: [http://accesstoinsight.eu/lib/authors/thanissaro/bmc2/bmc2.ch20_en.html]

Um auf die gleiche Seite (Inhalt) in deutscher Übersetzung zu gelangen entweder: [http://zugangzureinsicht.org/html/lib/authors/thanissaro/bmc2/bmc2.ch20.html] oder als Umleitung: [http://accesstoinsight.eu/lib/authors/thanissaro/bmc2/bmc2.ch20.html]

Die Fett gekennzeichneten Teile, wären die zu ändernden Teile gegenüber den im Wiki-de vorhandenen Links. Meine Person hofft, daß dieser Vorschlag hier richtig eingebracht ist und soweit auf verständlich.

Beispielseite, wo gerade manuelle Änderung vorgenommen: https://de.wikipedia.org/w/index.php?title=Uposatha&oldid=148094925 (War von einem Bot als zu sanieren gekennzeichnet gewesen)--203.144.93.201 15:28, 16. Nov. 2015 (CET)Beantworten

Umstellung von „österreichbezogen“

Ich bitte um die Umstellung des html-Kommentars <!-- österreichbezogen --> auf die neue Vorlage {{Österreichbezogen}} Die Umstellung auf die Wikisyntax ist weitgehend unumstritten, problematisch war das massenhafte Neueinsetzen von österreichbezogen – Grüße vom Wikipedia:Edit-a-thon/Universitätsbibliothek Wien 2015.  Frohes Schaffen — Boshomi ☕⌨☺ Defekte URLs - Hilfe gesucht17:22, 17. Nov. 2015 (CET)Beantworten

Wenn mir jemand für Cirrus den insource Begriff generiert, würde ich ein Skript anlegen. @Mfb: Du kannstest dich doch damit aus, oder? Viele Grüße, Luke081515 17:22, 25. Nov. 2015 (CET)Beantworten
Wohl einfach insource:/\<!\-\- *österreichbezogen *\-\-\>/i. --Leyo 18:06, 25. Nov. 2015 (CET)Beantworten
Das sollte alles oder fast alles abdecken. Es findet 5694 Seiten, von 5721 die "österreichbezogen" auch ohne Vorlageneinbindung nutzen. Die 27 Sonderfälle können manuell untersucht werden. Aufpassen sollte man bei Artikeln wie Bundesministerium für Verkehr, Innovation und Technologie, dort finden sich derzeit Vorlage und Quelltextkommentar (weiter unten im Artikel). Und dann haben wir noch Dinge wie Österreichisches Wörterbuch mit "<!--sic: österreichbezogen!-->". --mfb (Diskussion) 20:36, 25. Nov. 2015 (CET)Beantworten
Ok, dann halte ich mal fest, was ich beachten muss, korrigiert ihr mich falls nötig?
  1. Vorher auf Vorlage überprüfen. Falls Vorlage vorhanden, nur das html-Kommentar entfernen.
  2. Nur <!-- österreichbezogen -->, alles andere ignorieren.
  3. Hinterher überprüft jemand die sonderfälle?
Passt das so? Viele Grüße, Luke081515 21:38, 25. Nov. 2015 (CET)Beantworten
Ja, es gibt noch Varianten wie <!--österreichbezogen-->(relativ häufig, da früher so empfohlen), <!-- österreichbezogen--> und <!--österreichbezogen --> Frohes Schaffen — Boshomi ☕⌨☺ Defekte URLs - Hilfe gesucht22:00, 25. Nov. 2015 (CET)Beantworten
 Info:: Die Ersetzung ist u. U. ein Verstoß gegen [7]. --MGChecker – (📞| 📝| Bewertung) 22:56, 25. Nov. 2015 (CET)Beantworten
Ich denke nicht, dass das MB betroffen ist. Zum einen ist es ausdrücklich auf schweizbezogen bezogen, zum anderen wurde geregelt, dass nur ein Quelltexthinweis erstellt werden soll, keine Hinweisbox. Vorlage:Österreichbezogen erstellt keine Hinweisbox und entspricht eher dem Quelltextkommentar (+Wartungskat). --mfb (Diskussion) 23:27, 25. Nov. 2015 (CET)Beantworten
Wird derzeit entwickelt. Nur ANR, oder auch andere? Viele grüße, Luke081515 16:33, 28. Nov. 2015 (CET)Beantworten
ANR genügt. Bei anderen Namensräumen muss man höllisch aufpassen, was mit dem Kommentar eigentlich bezweckt wird, im ANR ist das klar. Der Rest ist Handarbeit. Frohes Schaffen — Boshomi ☕⌨☺ Defekte URLs - Hilfe gesucht18:31, 28. Nov. 2015 (CET)Beantworten

Hinweis: Wikipedia:Meinungsbilder/Vorlage Österreichbezogen --mfb (Diskussion) 00:45, 30. Nov. 2015 (CET)Beantworten

Vorlage Internetquelle: Datumsangaben bei Parametern auf JJJJ-MM-TT vereinheitlichen

Hallo, für die Nutzung der Vorlage:Internetquelle ist vorgesehen, die Datums-Angaben bei den Parametern Datum und Zugriff im Format JJJJ-MM-TT (also nach ISO 8601) einzugeben. Das ist vorteilhaft, da dann die Formatierung einheitlich erfolgt und bei Bedarf auch vorlagenseitig geändert werden kann. In der Praxis zeigt sich aber, dass die Vorlagenparameter manchmal in einem anderen Datumsformat (TT.MM.JJJJ, TT. Monat JJJJ o. ä.) befüllt werden. Ich würde daher anregen wollen, per Bot das Datumsformat (sofern eindeutig möglich) auf JJJJ-MM-TT zu ändern. Sofern dies nicht eindeutig möglich ist (Schreibfehler, exotische Datenformate, Uneindeutigkeit bei MM/TT/YYYY vs. TT/MM/YYYY o. ä.) könnte eine Liste zur manuellen Abarbeitung ausgegeben werden. Viele Grüße --Svencb (Diskussion) 20:11, 26. Nov. 2015 (CET)Beantworten

Aka ändert das häufiger mal. Sind derzeit knapp 8000 Artikel mit anderen Verwendungen, davon beginnen fast alle mit "xx." was eindeutig der Tag sein sollte. Immerhin 700 davon mit xx.&nbsp;. --mfb (Diskussion) 20:18, 26. Nov. 2015 (CET)Beantworten
Ah, interessant! Danke für die Erläuterung! --Svencb (Diskussion) 20:23, 26. Nov. 2015 (CET)Beantworten
Ich würde hier keine Versionsgeschichte mit Botläufen belasten wollen.
Die zukünftige Technologie hinter der Vorlage versteht alle Datumsformate, mault jedoch leise über nicht-ISO und legt im Rahmen von Bearbeitungen die Umstellung nahe.
WSTM kennt die Vorlage und die einschlägigen Parameter und wird irgendwann auch damit beginnen, deutsche Datumsformate zu erkennen und in ISO zu konvertieren, was beiläufig im Rahmen sonstiger Bearbeitungen passiert.
Falls Bots aus anderen triftigen Gründen Artikel bearbeiten, wären sie herzlich dazu eingeladen, vielerlei narrensichere Syntaxkosmetik mitzuerledigen, was früher mal allgemein üblich war, aber in den letzten fünf Jahren eingeschlafen ist.
LG --PerfektesChaos 22:25, 26. Nov. 2015 (CET)Beantworten
Das erscheint sinnvoll! Danke! --Svencb (Diskussion) 11:04, 27. Nov. 2015 (CET)Beantworten
Nicht so lange wir so wenige Botedits haben.
  • Ausgangslage: Derzeit sind gerade mal eine handvoll Botbetreiber im ANR unterwegs.
    • Die 8 aktivsten Bots seit September 2013 bringen es zusammen gerade mal auf 20000 Edits pro Monat. Das schafft Benutzer:Aka in einem guten Monat alleine.
    • Sieht man sich diese aktivsten Bots an, dann merkt man schnell, dass sie vor allem Spezialgebiete bedienen.
  • Wie sehe es aus würden Botbetreiber Syntaxpolituren nebenbei erledigen?
    • Da etliche dieser Bots immer wieder die selben Artikel editieren braucht käme man mit dieser Strategie auf höchstens 5-10% des Artikelbestands pro Jahr der auf diese Weise von gesäubert würden, oder andersrum in 20 Jahren hätten nur(sic!) 1/3 bis 1/8 aller Artikel noch keinen Syntaxpoliturbot gesehen.
    • Ein Bot der nur wenig Spezialaufgaben erledigt, kann in der Programmierung relativ einfach gehalten werden. Der Wartungsaufwand ist gering, der Aufwand für die Kontrolle der eigenen Edits ist auch überschaubar.
    • Für eine gute Syntaxpolitur sind eine Vielzahl an Funktionen notwendig, die alle gewartet und bei der Durchführung des Botlaufs überwacht werden müssen. Der Zeitaufwand für die Botbetreiber stiege dadurch rasant an, für mache Botbetreiber in einer Weise, dass einfaches AWB-Editieren seiner Spezialfälle zeitlich effizienter ist, als ständig den Bot zu warten.
    • Und wenn ein junger Programmierer kommt, der gerne eine einfache Spezialaufgabe durchführen will, und er müsste zusätzlich noch den ganzen Syntaykorrektur-Stack implementieren, hat dieser wohl schon aufgegeben bevor er anfängt.
  • Schlussfolgerung: Ich denke der Ansatz Spezialaufgaben zu erledigen und zusätzlich Syntaxpolituren durchzuführen ist gestorben, und wahrscheinlich ist das auch gut so, man denke an das UNIX-Prinzip.
  • Für Syntaxpolituren braucht es einen neuen Ansatz: Ich könnte mir einen Communty-Bot mit der Lizenz für Miniedits vorstellen, der von mehreren Botbetreibern gemeinsam gepflegt, und systematisch nach fixierten Terminplan alle Artikel durchläuft. Frohes Schaffen — Boshomi ☕⌨☺ Defekte URLs - Hilfe gesucht01:10, 28. Nov. 2015 (CET)Beantworten
Das ist Quack. Von vorn bis hinten.
  1. Ein Bot-Edit wegen einer Syntaxpolitur wäre unzulässig.
    • Syntaxbereinigung kann immer nur nebenbei zu einer inhaltlichen Änderung ausgeführt werden, nicht allein; wenn man sie nicht an eine zwingend erforderliche Bearbeitung koppelt, dann erfolgt sie niemals.
    • Wenn man sie also nicht koppelt, erfassen sie nicht 5–10 % des Bestands (also schon mal Hunderttausende von Artikeln), sondern exakt 0 %; mit Zeithorizont Jüngstes Gericht. Oder Parsoid.
  2. Das Prinzip „Jede Änderung nur eine ganz kleine“ isoliert führt zu Hunderten von Einträgen in der Versionsgeschichte, um nix.
    • Die beobachtenden Autoren und diejenigen, die eine Versionsgeschichte lesen müssen, werden dir Oberstrategen mit dem blanken Gesäß ins Gesicht springen.
  3. Es gibt keine Lizenz für Mini-Edits.
    • Wer soll denn befugt sein, so eine Lizenz auszustellen? Die Queen?
    • Mini-Edits ohne Wirkung auf die dargestellte Seite oder auf andere Seiten oder in Umsetzung wirklich notwendiger Angelegenheiten sind aus gutem Grund verboten, zumindest in Serie und durch Bots.
    • Jeder Edit wird von den beobachtenden Autoren und womöglich RClern durch oft mehrere Augenpaare, manchmal sehr viele, im Detail nachgeprüft und überwacht. Die vorgeschlagenen Massen-Mini-Edits ziehen eine Vielzahl von Tätigkeiten und Belastungen für andere Benutzer nach sich, die in Boshomis Welt nur leider noch nicht angekommen sind.
    • Im vorliegenden Fall geht es um die Umstellung von einem für Leser unsichtbaren, möglichen und funktionierenden Datumsformat auf ein anderes Datumsformat, das aber erwünschter ist als das erste. Dafür und nur dafür solle es nach Boshomis Vorstellungen einen eigenen Eintrag in der Versionsgeschichte und auf der Beo geben.
  4. Die vom Himmel fallende zusätzliche Community von Programmierern, die dir deinen Bot schreiben und pflegen würde, ist auch so ein Traum mehr als eine Stunde nach Mitternacht.
    • Diese Community kann mal die völlig veralteten maintainerlosen JS-Gadgets alle auf den neuesten Stand bringen, und nicht nur wie der Umherirrende grad vor dem völligen Zusammenbruch durch Notpflaster retten.
    • Labs erlauben zwar Maintainer-Gruppen und fördern sie ausdrücklich, aber die allerwenigsten Neuprogrammierungen beginnen durch eine Gruppe, immer nur durch Einzelpersonen. Gruppen werden erst hinterher als Erben des ursprünglichen Einzelentwicklers tätig. Und wenn man sich was zu Kreativität und Individualität überlegt, von Programmierstil und konzeptionellem Hintergrund sowie Entwicklungserfahrung mal was gehört hat, dann wird einem auch schnell klar, wie toll ein Zweitprogrammierer bei der freiwilligen Neuentwicklung eines Codes sein wird. Das klappt allenfalls hauptberuflich und gegen Bezahlung, und selbst da werden Arbeitsprozesse anders strukturiert.
  5. Ein Werkzeug, das nicht nach dem regelmäßig zur Ausrede für Unfähigkeit und Überforderung umfunktionierten Unixprinzip (mit dem etwas völlig anderes gemeint war) je nach Sachlage Hunderte von Aspekten in einem Edit berücksichtigt, pflügt längst durch den Artikelbestand, mit statistisch sichtbarer Wirkung. WSTM.
    • Nix ist an diesem Ansatz gestorben, eine oder mehrere notwendige Spezialaufgaben in einem Edit zu erledigen und beiläufig Syntaxpolituren mitzumachen.
    • WSTM kann übrigens auch Bot-Modus außerhalb Browser, braucht nur eine JS-Plattform.
  6. Weder der Artikelbestand noch Diskussionsseiten sind Spielgrund für Boshomi und überflüssige Bot-Bearbeitungen nach Terminplan. Die Seiten haben eine andere Daseinsberechtigung und erfordern triftige Gründe für einen Edit.
VG --PerfektesChaos 23:00, 29. Nov. 2015 (CET)Beantworten
  1. Das Bot-Edits wegen einer Syntaxpolitur unzulässig sind kann man Ändern.
  2. Ist die Regel geändert, können das die Bürokraten regeln.
  3. Welcher der [derzeitigen aktiven Bots] soll den die Syntaxpolitur nebenbei vornehmen? (Edits von 31. Mai bis 31. Oktober: APPERbot 32594; CactusBot 6594; EmausBot 2004; Krdbot 12880; Xqbot 7812; Sebbot 7463; CommonsDelinker 2901; JobuBot 1; (Das sind 14450 Edits pro Monat für alle 8 zusammen))
  4. WSTM ist sicherlich ein tolles Tool, das sicherlich auch im Botmodus betrieben werden könnte. Wenn ich es aktiviere und dann meine Edits mache, werden die Diffs sehr schnell unübersichtlich und ich findet meine eigenen Bearbeitungsfehler nicht mehr. Das ist der Grund warum ich es nur selten aktivere. Die Änderung durch WSTM alleine ohne eigenen Edit, wäre das wesentlich übersichtlicher. Ich denke dass es da den Botbetreibern ähnlich geht.
  5. Die derzeitigen Botbetreiber arbeiten mit recht unterschiedlichen Progammiersprachen, .net, perl, python, tcl, php,... Wenn jeder das den ganzen Politurkram zusätzlich implementieren müsste, wäre der Aufwand für jeden einzelnen Betreiber enorm.
  6. Wenn man Syntaxpolitiur will, wird man wie angesichts der oben erwähnten Zahlen nicht um einen darauf spezialisierten Bot herumkommen. Ich glaube nicht, dass ein einzelner Botbetreiber alleine die Verantwortung für so einen Politurbot übernehmen soll, denn es wäre sehr schade, wenn das notwendige Knowhow dann auch nur bei einer Person liegt.
  7. Regelmäßig sagt nichts über die Frequenz aus. Wenn der selbe Bot einen Artikel nur exakt alle $X Jahre besucht, ist das auch regelmäßig. Welche Frequenz gewollt ist, darüber kann man abstimmen.
 Frohes Schaffen — Boshomi ☕⌨☺ Defekte URLs - Hilfe gesucht01:28, 30. Nov. 2015 (CET)Beantworten

Aktualisierungshilfe für sorbische Wikipedia

Hallo zusammen! Ich aktualisiere gerade in der sorbischen Wikipedia Staatenartikel und es gibt da ein paar Aufgaben, die eventuell automatisiert durchgeführt werden könnten. Ich kenne mich allerdings zu wenig mit Bots aus.

  • Viele Staatenartikel müssten noch mit ISO-Code und Koordinaten ausgestattet werden. Die Parameter in der Infobox (hsb:Předłoha:Stat) heißen "ISO=", "šěrina=" (Breite) und "dołhota=" (Länge, beides bevorzugt dezimal).
  • Außerdem gibt es noch eine Menge arg veralteter Einwohnerzahlen (Parameter "wobydlerstwo="), die durch neuere Daten ersetzt werden sollten, falls das automatisch irgendwie möglich ist. Der Parameter "lěto" gibt das Jahr an, aus dem die Zahlen stammen, "wobydlerstwo-ref" ist für die Quellenangabe.
  • Auch Imagemaps werden momentan eingeführt (Parameter "mapa=" für die Karte und "imagemap=" für die Imagemap dahinter). Die vorhandenen Karten sind bereits auf Wikidata mit ihren Äquivalenten in der deutschen Wikipedia verlinkt. Die Dateinamen sind ohnehin die gleichen wie in de.wp.

Ein fertiges Anwendungsbeispiel mit allen Parametern findet sich z.B. im Artikel Kambodźa. Falls jemand eine Idee hat, wie man das alles oder zumindest Teile davon automatisiert umsetzen könnte, wäre das schön. Grüße, j.budissin+/- 16:12, 8. Dez. 2015 (CET)Beantworten

das klingt ja interessant, darf ich? – Doc TaxonDiskussionWiki-MUCWikiliebe?! 16:29, 8. Dez. 2015 (CET)Beantworten
@Doc Taxon: Klar, wenn du eine Idee hast. Ich hätte da auch noch mehr Sachen, die sich vielleicht erledigen ließen. --j.budissin+/- 17:10, 8. Dez. 2015 (CET)Beantworten
PS: Du müsstest dir dann noch von jemandem eine Botflag holen. --j.budissin+/- 17:12, 8. Dez. 2015 (CET)Beantworten
@J budissin: welche Sachen mehr gibt es noch? – Doc TaxonDiskussionWiki-MUCWikiliebe?! 17:13, 8. Dez. 2015 (CET)Beantworten
@Doc Taxon: Ok, Aufgabe 2 ist die Umstellung der Infoboxen von Städten und Gemeinden in Deutschland von hsb:Předłoha:Infokašćik město (allgemeine Infobox) auf hsb:Předłoha:Město DE (deutschlandspezifisch). Im Zuge dessen werden ein paar Parameter modernisiert bzw. ersetzt, die meisten bleiben aber gleich.
Geändert werden müsste folgendes bei allen Artikeln, die in einer Unterkategorie von hsb:Kategorija:Sydlišćo w Němskej sind und die Vorlage hsb:Předłoha:Infokašćik město beinhalten:
  • in der ersten Zeile natürlich
    {{Infokašćik město
    in
    {{Město DE
  • die Koordinatenangabe
    |lat_deg = 51 |lat_min = 53 |lat_sec = 59
    in
    |šěrina=51/53/59
  • das gleiche mit
    |lon_deg = 14 |lon_min = 07 |lon_sec = 00
    in
    |dołhota=14/07/00
  • falls es den Parameter
    |druhe mjeno=
    gibt, soll der durch
    |mjeno němske=
    ersetzt werden.
  • der Parameter
    |genitiw=
    entfällt ersatzlos, das macht jetzt eine Metadatenvorlage.
  • die Parameter
    |stat=Němska
    (Staat=Deutschland) und
    |zwjazkowy kraj=Braniborska
    (Bundesland=Brandenburg) sollen verschwinden und durch den jeweiligen ISO-Code ersetzt werden (in diesem Beispiel
    |region-ISO=DE-BB
    Die sorbischen Namen zu den ISO-Codes findest du hier unter "D".
  • im Parameter
    |wysokosć=
    muss das "m" am Schluss weg, falls da eines stehen sollte.
  • der Parameter
    |KFZ-znamješko=
    (KFZ-Kennzeichen) entfällt ersatzlos und sollte überall entfernt werden. Das macht die Box zukünftig automatisch.
  • falls nicht bereits vorhanden, sollte ans Artikelende, aber vor den Abschnitt
    == Wotkaz ==
    , ein zusätzlicher Einzelnachweiseabschnitt eingefügt werden:
== Žórła ==
<references />
Das wäre es eigentlich :D Was davon geht? --j.budissin+/- 17:35, 8. Dez. 2015 (CET)Beantworten
Der Einzelnachweisabschnitt gilt auch nur für Gemeinden in Deutschland oder für alle Artikel in der hsb:wiki – Doc TaxonDiskussionWiki-MUCWikiliebe?! 18:18, 8. Dez. 2015 (CET)Beantworten
@Doc Taxon: An sich ist der ja nur sinnvoll, wenn es auch Einzelnachweise gibt. Das kann der Bot sicherlich rauskriegen, oder? In dem Fall dann für alle. Was auf jeden Fall noch für alle Artikel mit dem hsb:Infokašćik Město gilt, ist die Umwandlung von "lat_deg/lat_min/lat_sec" in "šěrina" und "dołhota". Die alte Form wollen wir schon seit langem abschaffen. --j.budissin+/- 22:17, 8. Dez. 2015 (CET)Beantworten
Ja, das steht ja oben schon, ich kümmer mich drum – Doc TaxonDiskussionWiki-MUCWikiliebe?! 22:22, 8. Dez. 2015 (CET)Beantworten
Schön, ich freu mich. Sag Bescheid, wenn du noch irgendeine Info brauchst. --j.budissin+/- 22:56, 8. Dez. 2015 (CET)Beantworten
@Doc Taxon: Und, wie stehen die Chancen? --j.budissin+/- 18:49, 12. Dez. 2015 (CET)Beantworten

@J budissin: nun, zunächst mal müsste ich wohl einen Botflag dort beantragen. Schauen wir mal, ich meld mich dann wieder – Doc TaxonDiskussionWiki-MUCWikiliebe?! 20:18, 12. Dez. 2015 (CET)Beantworten

@Doc Taxon: Ein Botflag kann dir dort aber keiner geben, da die sorbischen Wikipedien keinen Bürokraten haben. --Tlustulimu (Diskussion) 21:10, 12. Dez. 2015 (CET)Beantworten
@J budissin, Tlustulimu: Habe dafür einen Steward gefragt und er meinte, dass so etwas in der hsb.community abgesprochen sein sollte. Wie sieht es denn da aus? Wenn es soweit okay ist, kann ich einen Botflag beim Steward beantragen und das geht dann seinen Gang. – Doc TaxonDiskussionWiki-MUCWikiliebe?! 23:40, 12. Dez. 2015 (CET)Beantworten
Ich denke, wenn Tlustulimu und ich als die beiden aktiven Admins damit einverstanden sind, ist das schon ok. --j.budissin+/- 02:43, 13. Dez. 2015 (CET)Beantworten
@J budissin, Tlustulimu: Meldet Euch mal bitte hier dazu, wie ich schon sagte, sollte eine Diskussion in der hsb.community vonnöten sein. Wenn Ihr mich mit Eurer Meinung unterstützt, fände ich das großartig. Danke, – Doc TaxonDiskussionWiki-MUCWikiliebe?! 18:07, 14. Dez. 2015 (CET)Beantworten

Botflag erteilt, schauen wir, wie's weitergeht, ich melde mich – Doc TaxonDiskussionWiki-MUCWikiliebe?! 15:28, 24. Dez. 2015 (CET)Beantworten

Minuszeichen als Gedankenstrich

Das Minuszeichen wird zurzeit recht oft als Gedankenstrich oder Streckenstrich missbraucht. Diese Abfrage liefert 200 Treffer, lässt man es ein weniger allgemeiner, kommt man sogar auf mehr als 7000 Treffer, was ein Fall für einen Bot wäre, wenn nicht einige wenige False-Positives drin wären (z. B. Schwierigkeitsskala (Klettern)). Die Frage ist, ob man die Abfrage noch etwas verfeinern könnte, sodass keine False-Positives mehr drin sind und ein Bot loslaufen kann (z. B. durch Ausschluss des Pluszeichens im Umfeld der Gedankenstriche). 79.217.150.114 13:40, 24. Dez. 2015 (CET)Beantworten

Fehlende Seiten Kategorienamensraum

Ich hätte gerne eine Liste der im Katgorienamensraum meistverlinkten fehlenden Seiten. Kann mir das jemand generieren? 178.7.42.201 21:18, 29. Dez. 2015 (CET)Beantworten

Liste über ungewöhnliche Kategorienstruktur

Wenn es eine Kategorie K0 gibt, welche eine Unterkategorie K1 hat und einen Artikel A, welche in K1 ist, dann sollte A nicht zusätzlich in K0 sein (siehe z.B. https://de.wikipedia.org/w/index.php?title=Bayessches_Netz&type=revision&diff=149491243&oldid=147998947)

Könnte jemand bitte einen Bot schreiben, der das für alle Artikel überprüft und in eine Tabelle (Verlinktes Lemma, Kategorie, Unterkateogrie) schreibt?

Was man tun muss:

Dabei sollen nicht nur direkte Unterkategorien überprüft weden, sondern beliebige Tiefen. Dazu muss zuerst ein Kategoriebaum (bzw. Wald / DAG) aufgabaut werden. Dann wird für jeden Artikel überprüft, ob es einen Pfad von einem Wurzelknoten zu einer benutzten Kategorie gibt, welche über eine andere benutzte Kategorie führt (das ist ein wenig schwer auszudrücken ... wenn mir jemand den Kategorie-Baum im JSON-Format geben kann und die Kategorien aller Artikel auch als JSON kann ich das auch selbst machen)

Viele Grüße, --Martin Thoma 13:39, 30. Dez. 2015 (CET)Beantworten

das werde ich mal machen, dauert aber schon ne Weile dann – Doc TaxonDiskussionWiki-MUCWikiliebe?! 23:20, 1. Jan. 2016 (CET)Beantworten

Gefahrstoffdaten

Wäre es prinzipiell möglich, die GESTIS-Stoffdatenbank inkrementell abzufragen (d.h. die sog. ZVG-Nr. immer um eins erhöhen bzw. die Werte aus diesem Excel-Dokument verwenden) und von den Zielseiten die Gefahrstoffdaten auszulesen und hier in einer Tabelle für Wartungszwecke abzulegen? Ein Beispiel:

  • In einem weiteren Schritt müssten dann die Daten mit den WP-Artikeln verglichen und Abweichungen gemeldet werden (eine Zuordnung ZVG-Nr. <-> WP-Lemma könnte dazu sicher erstellt werden)
  • Und in einem dritten Schritt die Gestis-Abfrage ca. monatlich wiederholt und Änderungen innerhalb Gestis gemeldet werden

Viele Grüße --Mabschaaf 14:53, 3. Jan. 2016 (CET)Beantworten

jo, klingt interessant, da mach ich mich mal ran – Doc TaxonDiskussionWiki-MUCWikiliebe?! 21:38, 3. Jan. 2016 (CET)Beantworten
nee, an die Seiteninhalte komme ich mit einem Bot nicht ran, vielleicht hat jemand anders mehr Erfolg – Doc TaxonDiskussionWiki-MUCWikiliebe?! 21:49, 3. Jan. 2016 (CET)Beantworten
Probier mal [8]. -- FriedhelmW (Diskussion) 22:22, 3. Jan. 2016 (CET)Beantworten
Hat jemand GESTIS nach einer maschinenlesbaren Tabelle gefragt? Für die wäre es am einfachsten. Falls das nicht klappt:
Hilft dir eine csv-artige Tabelle mit den Inhalten der Webseite? Wie die auf knapp 10000 Zugriffe der gleichen IP reagiert weiß ich natürlich noch nicht, aber man könnte es zumindest probieren.
Alternativ: Nach "P261" zu suchen liefert eine Tabelle mit allen ZVG-Nummern mit P261. Wären insgesamt weniger Aufrufe, wenn man eine vollständige Tabelle der P/S-Sätze erstellt. --mfb (Diskussion) 22:39, 3. Jan. 2016 (CET)Beantworten
Die technische Seite ist mir völlig egal (solange sich auf irgendeinem Weg das Gesamtziel erreichen lässt) - das oben beschriebene war nur eine Idee, wie ich mir eine Lösung vorstellen könnte. Ich würde sehr gerne mittelfristig davon wegkommen, dass GESTIS von uns unbemerkt Einstufungen ändert und wir bekommen das erst Jahre später durch eine Anmerkung auf der Disku mit. Dafür hätte ich gerne eine Check-Routine.--Mabschaaf 22:44, 3. Jan. 2016 (CET)Beantworten

Jo, die techn. Seite ist mir auch egal, ich brauche nur Daten. Eine csv wäre, je nachdem, wie sie aussieht, klasse. Die Suche nach P-Sätze muss ich mir noch anschauen, ob's was bringt. – Doc TaxonDiskussionWiki-MUCWikiliebe?! 13:47, 4. Jan. 2016 (CET)Beantworten

Was mit überschaubarem Aufwand gehen sollte, wäre eine Liste im Stil von "31600; Brommethan; Gefahr, ghs06.gif, ghs08.gif, ghs09-neu.gif; H280, H301+H331, ...; P261, P273, ..." mit einem Stoff pro Zeile wobei hier ; die Gruppen trennt und , die einzelnen Sätze/Bilder, Zeichen sind natürlich beliebig austauschbar. Ich sehe das von der technischen Seite, inhaltlich bekommt das die Chemieredaktion schon gut hin. --mfb (Diskussion) 14:54, 4. Jan. 2016 (CET)Beantworten
@Mfb: "Ihre Suche fand keine Treffer in den Dokumenten. Sie suchten nach [Feld zvgnr:*P261*]" Mit einer Rückwärtssuche geht es leider auch nicht. – Doc TaxonDiskussionWiki-MUCWikiliebe?! 13:17, 7. Jan. 2016 (CET)Beantworten
In der Volltextsuche nach "P261" zu suchen klappt. --mfb (Diskussion) 15:34, 7. Jan. 2016 (CET)Beantworten
@Mfb: Ich hab ja meine Aussage auch gestrichen, ja das geht. Aber an den Seiteninhalt der Suchergebnisseite kommt man ebenfalls nicht. Im Seitenquelltext werden die Daten mit JavaScript aus einer Datenbank eingespielt. Da geht leider nix, ein Bot kann da nichts crawlen. Vorlage:Smiley: Der Parameter Heulsuse wurde nicht erkannt!Vorlage:Smiley/Wartung/ErrorVorlage:Smiley/Wartung/heulsuse Doc TaxonDiskussionWiki-MUCWikiliebe?! 22:08, 7. Jan. 2016 (CET)Beantworten
Naja, der Bot müsste JS auswerten. Der Quelltext wird ja schon zur Verfügung gestellt, hier im Quelltext zu finden für Adrenalin in der Suche nach P261. Alles umständlich, der Deeplink von FriedhelmW ist bislang wohl der beste Ansatz wenn wir nur die Webseite haben. Was haltet ihr von einer direkten Anfrage? Frei nach WP:Textvorlagen:
Sehr geehrtes GESTIS-Team,
mein Name ist (NAME) und ich bin einer von vielen Autoren der freien Enzyklopädie Wikipedia (http://de.wikipedia.org).

An diesem internationalen Projekt ist jeder zur Mitarbeit eingeladen. Ich arbeite derzeit mit weiteren Mitarbeitern an der Aktualisierung der Gefahrstoffdaten. Dabei ist die GESTIS-Datenbank eine wichtige Quelle und wird auch als solche in den Gefahrstoffartikeln genannt. Wir würden gerne alle Artikel so aktuell wie möglich halten, bei 9400 Stoffen ist dies von Hand jedoch eine mühsame Aufgabe. Sind Ihre Daten in einem Tabellenformat zugänglich, oder könnten Sie mir eine solche Tabelle zur automatischen Auswertung zur Verfügung stellen? Interessant wären vor allem zu jeder ZVG-Nummer die Nummern der GHS-Piktogramme, das Signalwort und die H- und P-Sätze (nur die Nummern).

Ich würde mich sehr über Ihre positive Reaktion freuen und verbleibe mit freundlichen Grüßen
(NAME)
Kann sicher besser ausgeschmückt werden, aber das ist der wesentliche Inhalt denke ich. --mfb (Diskussion) 23:36, 7. Jan. 2016 (CET)Beantworten

RiAA-Datenbank

Die RIAA hat ihre Datenbank umgestellt, nun müssten über zweitausend Links geändert werden. Leider geht nicht alles per Bot, aber die einfachen Fälle dürften machbar sein.

@Doc Taxon: der Bot hat nicht alle angegebenen Links geändert.

Gab es da irgendwelche Probleme? --Ali1610 (Diskussion) 07:42, 6. Jan. 2016 (CET)Beantworten

@Ali1610: Ähm, ich guck noch mal. Du musst Dich aber auch schon relativ genau ausdrücken, denn ich steck ja nicht in Deinen Themen. Was meinst Du mit Künstlerlink? – Doc TaxonDiskussionWiki-MUCWikiliebe?! 17:48, 6. Jan. 2016 (CET)Beantworten
Ich liste hier nochmal auf, wo noch Links übrig geblieben sind.
Die unteren beiden sind eben keine reinen Ersetzungslinks, sondern hier muss der Bot noch etwas im Link umbauen wie oben beschrieben. Ich hoffe, dass es jetzt verständlich und machbar war. --Ali1610 (Diskussion) 21:55, 6. Jan. 2016 (CET)Beantworten

@Ali1610: Ah, jetzt weiß ich auch, warum so viel übrig geblieben ist. Ich bin dran, – Doc TaxonDiskussionWiki-MUCWikiliebe?! 13:42, 7. Jan. 2016 (CET)Beantworten

Der Setzer dieses Bausteins ist der Ansicht, diese Bot-Anfrage sei abgeschlossen und könne archiviert werden. – Doc TaxonDiskussionWiki-MUCWikiliebe?! 22:09, 7. Jan. 2016 (CET) Erledigte Anfrage

Fehlendes Leerzeichen vor und

Die Suche nach insource:/\-und / liefert ~1200 Treffer. Bei einem Grossteil davon fehlt zwischen - und und ein Leerzeichen. Kriegt es jemand hin, die Falsch-Positiven zu eliminieren und die Korrekturen per Bot zu machen? --Leyo 17:20, 8. Jan. 2016 (CET)Beantworten

oh je oh je oh je, das ist ja schlimm! Das kann so nicht bleiben, ich kümmere mich drum. – Doc TaxonDiskussionWiki-MUCWikiliebe?! 17:32, 8. Jan. 2016 (CET)Beantworten
Dieser Botauftrag wird gerade von TaxonBot (Beiträge) bearbeitet. Um Konflikte zu vermeiden, warte bitte mit anderen Aktionen, bis diese Markierung entfernt ist, oder kontaktiere den Betreiber (Diskussion).

Halt: -oder noch mitnehmen! – Doc TaxonDiskussionWiki-MUCWikiliebe?! 19:38, 8. Jan. 2016 (CET)Beantworten

und -sowie ein lächelnder Smiley Doc TaxonDiskussionWiki-MUCWikiliebe?! 19:47, 8. Jan. 2016 (CET)Beantworten