Wikipedia:Bots/Anfragen

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 20. November 2014 um 00:40 Uhr durch Croesch (Diskussion | Beiträge) (Suche Bot, der die Artikel mit den meisten Vorlageneinbindungen findet: +Hinweis auf Links). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Zur Navigation springen Zur Suche springen

Hier ist Platz, Bearbeitungs- und Änderungswünsche an die Botbetreiber zu notieren, die in „Handarbeit“ ausgeführt eher als Zumutung gelten können, zum Beispiel das Korrigieren von mehr als 50 Einbindungen einer verschobenen Vorlage (gilt nur für zu löschende Falschschreibungsweiterleitungen auf Vorlagen!). Wenn du Fragen hast, kannst du Botbetreiber auch im IRC-Channel [#wikipedia-de-bots] Webchat erreichen. Für Besprechungen unter den Botbetreibern oder zur Koordination von wichtigen Änderungen (z. B. an der API) gibt es die Bot/Notizen.

Für Anfragesteller gilt
  1. Anfragen bitte begründen, gegebenenfalls mit Links auf relevante Diskussionen, und unterschreiben.
  2. Es gibt keine Verpflichtung der Botbetreiber, diesen Anfragen nachzukommen, und insofern auch keinen Anspruch auf Umsetzung eines Änderungswunsches.
  3. Größere Änderungen an Artikeln eines Themengebietes, z. B. an Einbindungen viel genutzter Vorlagen, bitte mit den jeweiligen Fachportalen oder -redaktionen abstimmen. Die Verantwortung für die Aktion liegt beim Anfragesteller.
  4. Vor dem Stellen einer Anfrage, die einen regelmäßigen Boteinsatz und keine einmalige (Massen-)Änderung betrifft, bitte ebenfalls das betroffene Portal bzw. Projekt informieren und den geplanten Boteinsatz dort diskutieren.
  5. Bei einem Boteinsatz ist oft noch Vor- und Nacharbeit durch den Anfragesteller notwendig, zum Beispiel nach Auflösung von Weiterleitungen die Kontrolle und das Stellen eines Schnelllöschantrages. Auch kann es immer Fälle geben, in denen der Bot nicht richtig arbeitet und die dann manuell nachgearbeitet werden müssen.
  6. Ent- oder Umkategorisierungen von Artikeln in die Kategoriendiskussion eintragen, dort diskutieren und dann in die Warteschlange des WikiProjekts Kategorien stellen.
  7. Ein einfaches Umbiegen von Links nach einer Verschiebung auf das neue Ziel wird grundsätzlich nicht vorgenommen. Umgebogen werden können Verweise auf zwingend zu löschende Weiterleitungen – wie z. B. bei Falschschreibungs-Weiterleitungen oder nach Verschiebungen falsch geschriebener Vorlagen.
  8. Änderungen der Signatur können in Fällen durchgeführt werden, in denen zahlreiche Links auf eine falsche Benutzerseite zeigen. Dies jedoch nur, falls die Korrektur nicht mittels Weiterleitungen möglich ist (beispielsweise bei im Rahmen der SUL-Finalisierung umbenannten Benutzern).
  9. Es werden keine Änderungen der Rechtschreibung zwischen zulässigen Versionen bzw. Variationen durchgeführt.
Für Botbetreiber gilt
  1. Jeder Botbetreiber ist verpflichtet, die Sinnhaftigkeit vor Ausführung eines Änderungswunsches zu prüfen und bei Einsprüchen gegebenenfalls von der Änderung abzusehen (kein blindes Vertrauen in die Angemessenheit/Richtigkeit hier gestellter Anfragen).
  2. Für jede hier gelistete Anfrage gelten die auf Wikipedia:Bots genannten grundsätzlichen Regeln (zum Beispiel keine Änderungen im Benutzer- oder Wikipedia-Namensraum ohne Absprache).
  3. Bot-Anfragen (insbesondere nach Löschdiskussionen) sollten mindestens 3 Tage ruhen, um eine gegebenenfalls initiierte Löschprüfung nicht durch vollendete Tatsachen unmöglich zu machen. Bei offensichtlichen Botaufträgen (z. B. aus einer Portal-Diskussion für das Portal beschlossene Änderungen und dergleichen) ist diese Wartezeit nicht zwingend notwendig, desgleichen nicht für „Anfrage-Aufträge“, die keine Seiten in der Wikipedia ändern.
Durchführung
  • Die Botbetreiber sollen bitte vor Umsetzung den jeweiligen Punkt entsprechend kommentieren, um Überschneidungen zu vermeiden.
  • Dazu sollte vor dem Botstart hier im entsprechenden Abschnitt die Vorlage InuseBot platziert werden:
{{InuseBot|Botname|Betreiber}}
  • Den Bot bitte sorgfältig beobachten!
  • Bitte nach Erledigung den Punkt in der Liste als erledigt kennzeichnen.
Abkürzung: WP:BA, WP:BOT/A, WP:B/A


Auf dieser Seite werden Abschnitte ab Überschriftenebene 2 automatisch archiviert, die seit einem Tag mit dem Baustein {{Erledigt|1=--~~~~}} versehen sind. Die Archivübersicht befindet sich unter Wikipedia:Bots/Anfragen/Archiv.
Vorlage:Autoarchiv-Erledigt/Wartung/Festes_Ziel

Auf Diskussion:Freie Wähler#Nomenklatur werden verschiedene Lösungsmöglichkeiten diskutiert, wie die über 1000 bis max 1500 Links auf die derzeitige BKS Freie WählerBKL korrigiert werden können. Eine erste Aufteilung wäre in zwei disjunkte Listen, d.h.

Wie "einfach" eine BKL nach Bundesland aufzulösen ist, kommt auf das Bundesland und natürlich auf den Artikel-Kontext an. Bevor aber jetzt 16 oder gar 32 Listen vom Typ B erzeugt werden, interessiert mich erstmal die Liste A. Wo wäre der richtige Speicherort für diese? --grixlkraxl (Diskussion) 18:31, 3. Jan. 2013 (CET)Beantworten

Bevor jetzt ein Bot loslegt, müssen die zu bearbeitenden Artikel rausgefunden werden. Weil mich die Spezial:API-Spielwiese schon lange interessiert hat:

  1. Die backlink-Abfrage auf "Freie Wähler" (/w/api.php?action=query & list=backlinks & bltitle=Freie%20W%C3%A4hler & blnamespace=0 &...) liefert etwa 1396 Ergebnisse
  2. Die categorymembers-Abfrage "Kategorie:Gemeinde in Niedersachsen" (/w/api.php?action=query & list=categorymembers & cmtitle=Kategorie%3AGemeinde%20in%20Niedersachsen & cmnamespace=0 &...) bringt insgesamt 100 Eintrage.

Kraft eigener Hausmittel (sort ... | uniq -d) wären als Schnittmenge etwa 24 Artikel zu bearbeiten ... Meine Frage ist jetzt: Können die Abfragen (1) und (2) zusammen durchgeführt (z.B. als "generator") werden? Wenn ja, wie gehts? --grixlkraxl (Diskussion) 13:58, 7. Jan. 2013 (CET)Beantworten

Nach meiner Kenntnis geht das nicht, da du die Seitentitel der einen Abfrage in einen impliziten titles-Parameter der anderen Abfrage einfüttern müsstest. Du kannst zwar beide Module als Generator verwenden, aber keines akzeptiert als Eingabe einen Generator. Aber du könntest die backlinks als Generator für categoryinfo nehmen, z.B. Es spricht allerdings nichts dagegen, die gewonnen Informationen anderweitig zu verarbeiten und die Schnittmenge daraus zu bilden. – Giftpflanze 14:50, 7. Jan. 2013 (CET)Beantworten
Erstmal Danke an Giftpflanze für "Nach meiner Kenntnis geht das nicht ...". Ich habe also gelegentlich mit meinen eigenen "Hausmitteln" gearbeitet, sprich Spezial:API-Spielwiese, libmediawiki-api-perl und MediaWiki::API.pm. In erster Näherung ergibt sich:
  • Aktuell verlinken 1385 Artikel (vorher 1396) auf die BKS,
  • davon sind 989 verschiedenen Bundesländern zuzuordnen.
Für die bisher noch nicht zugeordneten 396 Links sind noch weitere Kategorien zu prüfen. Für ungefähr fünf Kats "Xyzzy (Deutschland)" oder "Xyzzy in Deutschland" ist nach allen Unterkats des jeweiligen(!) Bundeslandes gefragt. Mit dem Toolserver catscan_rewrite.php?... ginge es natürlich schon, allerdings suche ich noch nach einer API-Lösung für:
Zeige mir alle Unterkats einer bestimmten Kategorie Xyzzy. Das wären bei etwa 5 Xyzzy für max. 16 Länder also über 50 zu prüfende Start-Kategorien "Xyzzy pro Bundesland".
Wenn ich es richtig verstehe, liefert mir "? action=query & list=categorymembers & cmtitle='Xyzzy in Land' & cmtype=subcat & ..." nur immer eine Kat-Ebene. Den Baum entlang hangeln muß ich mich aber selber. Sollte ich falsch liegen, bitte beim Widerspruch eine API-Aufruf beigeben.
PS: mit dem Vorschlag "action=query & prop=categoryinfo & f generator=backlinks &..." bin ich nicht weitergekommen, aber das ist egal.
PPS: Noch ist nicht klar, ob und wenn ja welcher Auftrag einem Bot erteilt werden soll ;-)
--grixlkraxl (Diskussion) 13:19, 17. Jan. 2013 (CET)Beantworten

Vorsortierung Dez. 2013

@Grixlkraxl: Ist diese Anfrage noch aktuell? Was fehlt noch, was genau soll gemacht werden? --Krd 16:49, 21. Dez. 2013 (CET)Beantworten
<Wischiwaschi>Ich danke Krd für die Nachfrage. Ich versuche es kurz zu machen:</Wischiwaschi>
  1. "Ist diese Anfrage noch aktuell?"
    Zur Zeit verlinken immer noch 1186 Artikel auf die BegriffsklärungBKL. Die gute Nachricht: Das sind immerhin über 200 weniger als zu Beginn der Anfrage, in voraussichtlich fünf bis sechs Jahren hat sich das Problem von selbst erledigt. Die schlechte Nachricht: manche sind damit unzufrieden, daß bspw. im selben(!) Artikel-Abschnitt verschiedene(!) Stadtratsfraktionen auf dieselbe(!) BKL weiterleiten. Dummerweise ist sowohl(!) die Lage in den echten (Vorsicht: real life!) 16 deutschen Bondesländern unübersichtlich, als auch(!) der Artikelbestand der de.WP schwer zuzuordnen. Die inhaltliche(sic!) Problematik wird u.a. auch bei den Parteien-RK besprochen. Das tut technisch(!) allerdings nix zur Sache.
  2. "Was fehlt noch?"
    Ich muss zugeben, meine am 7. Jan. 2013 gestellte Bitte um Bot-Unterstützung war etwas naiv, also ungenau, gestellt. Danach haben sich meine Kenntnisse der Wikimedia-API verbessert, und zusammen mit etwas Perl-Zauberei und Shell-Skripting bin ich in der Lage, so etwas wie Diskussion:Freie Wähler#Zwischenstand 2013-02-04 zu wiederholen. Beim aktuellen code review lese ich z.B. TOOLSERVER => 'http://toolserver.org/~magnus/catscan_rewrite.php'. Die Liste der wesentlichen Kats zur Bundesland-Zuordnung lässt sich sicherlich auch anders gewinnen...
  3. "was genau soll gemacht werden?"
    Die über 1000 Fehlverlinkungen sollen programm-gesteuert auf ein händisch abarbeitbares Maß (kleiner 10%) reduziert werden. Dabei muss(!) die Link-Auflösung je nach Bundesland verschieden sein. JA, eine regex für die 80-90% existiert. NEIN, ein Kommandozeilen-Tool habe ich noch nicht. Irgendwo habe ich allerdings mal einen Screenshot einer python-Lösung gesehen.

Grob gesprochen: Es ist ein Script gesucht, das eine vorgegebene Liste von Artikeln abarbeitet und für jeden Artikel die Entscheidung lässt zwischen:

1) Den Link durch einen definierten andern WP-Artikel ersetzt, lesbarer Text wird beibehalten

2) Link wird gelöscht, sichtbarer Text wird beibehalten

3) Das aktuelle Lemma wird in eine Datei zur weiteren Verarbeitung gespeichert.

4...5) weitere Aktionen, wobei mehr als insgesamt fünf Alternativen dem Sinn und Zweck einer Script-Bearbeitung widersprechen.

Mir ist inzwischen klar, das eine simple technische Lösung ("einfach mal mit einem Programm über alle fraglichen Artikel drüberbügeln") so nicht existiert. Weiterhin werde ich keine Bots mit Python programmieren. Wie soll es in diesem Thread weitergehen? Ist eine andere Stelle geeigneter? Oder führen wir das mal an Hand eines Bundeslandes exemplarisch durch? --grixlkraxl (Diskussion) 22:10, 26. Dez. 2013 (CET)Beantworten

@Grixlkraxl: Wenn also ein Artkel beispielsweise auf Freie Wähler verlinkt und unterhalb von Kategorie:Brandenburg einsortiert ist, dann soll [[Freie Wähler|…]] auf [[Brandenburger Vereinigte Bürgerbewegungen / Freie Wähler|…]] geändert werden. Habe ich das richtig verstanden? --Krd 19:04, 29. Dez. 2013 (CET)Beantworten
Ja, so gefähr. Die Probleme am Beispiel Brandenburg: (1) Bundesverband Freie Wähler Deutschland#Brandenburg meint die kommunalen Gruppen, die sich als (2) Freie Wähler Brandenburg organisiert haben. Dagegen ist (3) Freie Wähler Deutschland eine Partei mit LV in Berlin und Brandenburg. Dann gibt's noch (4)Brandenburger Vereinigte Bürgerbewegungen / Freie Wähler als weitere "sonstige politische Vereinigung" nach EuWG. Und als fünftes könnte auch noch (5)Freie Wählergemeinschaft Die Nationalen (1991-1997) in Frage kommen. Mit Stand 4. Februar 2013 waren das "nur" 81+X Fehlverlinkungen für Brandenburg. Hinter dem X verstecken sich noch "326 Nicht-Zugeordnete Personenartikel aus Kategorie:Politiker (Deutschland) (o.s.ä, die Katsystematik ist hier schwer zu durchschauen" (meine Worte zum damaligen Zwischenstand).
Nur kurz zu den eigentlichen Artikelinhalten: Die ewiggleichen Diskussionen auf LK und zu den Parteien-RK hängen mir inzwischen zum Hals raus. Ebenso hat sich der Kategorienbaum, die Bezeichnung "Systematik" verbietet sich wg. Schönfärberei, für diesen Zweck hier(!) als beinahe unbrauchbares Gestrüpp herausgestellt.
Trotzdem könnte ich mich bei Interesse nochmal durch mein proof of concept wühlen:
  • (a) Kurze Beschreibung mit welchen API-Aufrufen ich zu den einzelnen Länderliste kommen, das geht sicher besser;-) Ist der Thread hier geenignet?
  • (b) Wohin lade ich eine einzelne Liste, die dann abzuarbeiten wäre?
Beim letzten Punkt habe ich damals aufgehört. Irgendwo fand ich mal einen screenshot eines phyton scripts für die console, aber wo nochmal? Ich hatte sogar schon mit dem Nachbau in perl begonnen, ... möglicherweise, vielleicht kommt die Motivation zurück:-) --grixlkraxl (Diskussion) 16:58, 23. Jan. 2014 (CET)Beantworten

Übersetzte Liste tschechischer Gemeinden

Hallo! Kann ein Bot die beiden Listen cz:Seznam obcí s rozšířenou působností und cz:Seznam obcí s pověřeným obecním úřadem übersetzen, d.h. die deutschen Entsprechungen heraussuchen und in Portal:Tschechien/Mitarbeit/Gemeinden einfügen? Nicht existente deutsche Entsprechungen müssen nicht angegeben werden. Der Hintergrund ist kurz auf dieser Portal-Unterseite beschrieben. Anlaß ist eine Diskussion im Portal zu der Beobachtung, dass zahlreiche (wenn nicht alle) tschehichen Gemeindeartikel den Verwaltungsstand von Ende 2000 angeben. Danke! --Spielertyp (Diskussion) 00:13, 12. Jun. 2013 (CEST)Beantworten

Wenn sich das mit einem Bot prinzipiell nicht erledigen lässt, sagt uns das bitte! Dann erstellen wir die Liste mit der Hand (innerhalb der nächsten zwölf Monate). --20:06, 13. Jun. 2013 (CEST)

Ist es das was Du möchtest?

Die cz-Links kann man natürlich noch rauswerfen, man kann das ganze auch anders aufbereiten.--Cactus26 (Diskussion) 18:37, 17. Jun. 2013 (CEST)Beantworten

Vielen Dank! Das ist genau, was wir brauchen - zumindest in einem ersten Schritt. Jetzt müssen wir noch wissen, welche (normalen) Gemeinden zu diesen Gemeinden zählen. Intuitiv würde ich sagen, dass das folgende Vorgehen das einfachste ist: Dein Bot sucht all jene Artikel tschechischen Gemeinde Artikel (solche mit der cz:Template:Infobox české obce a města) in welchen der Parameter "ob.roz.půs" für Wirkungsbereich-Gemeinden bzw. "pov.ob" für Gemeindeamt-Gemeinden mit den jeweiligen Einträgen in der Liste auf Portal:Tschechien/Mitarbeit/Gemeinden korrespondiert. Sprich: (Bot (1) nimmt ersten Eintrag (Benešov), (2) sucht in der cz-Wikipedia nach Vorkommen unter dem angegebenen Parameter, (3) sucht für diese Artikel das deutschsprachige Pendant heraus und fügt (3) sie in die Liste ein. Ist das möglich? Falls nicht müssen wir die ersten beiden Schritt mit der Hand machen. --Spielertyp (Diskussion) 15:47, 21. Jun. 2013 (CEST)Beantworten
Wie kann es hier weiter gehen? Wäre das Auslesen des in Wikidata hinterlegten deutschen Lemmas eine Hilfe? Kann soetwas ein Bot mahcne? --Spielertyp (Diskussion) 00:34, 2. Nov. 2013 (CET)Beantworten

Der Setzer dieses Bausteins ist der Ansicht, diese Bot-Anfrage sei abgeschlossen und könne archiviert werden. kein Interesse nach 1 a Erledigte Anfrage

Anzeige von fälligen KLA-Kandidaturen

Moin! Ich möchte in Erfahrung bringen, ob ein Bot fällige WP:KLA-Kandiaturen in eine noch zu erstellende Vorlage schreiben kann. Nach zehn Tagen können diese ausgewertet werden, häufig passiert das jedoch viel später. Das hängt damit zusammen, dass an die Auswertung nur auf der Diskussionsseite erinnert wird, und dort nur ein relativ kleiner Personenkreis angesprochen wird - übrigens ein Personenkreis, der selbst kräftig mitstimmt und für die Auswertung nicht in Frage kommt. Eine automatisch gepflegte Vorlage könnte z.B. auch bei WP:KALP oder WP:R angebracht werden. Sie müsste lediglich nach Ablauf der Frist (10 Tage ab Erstellung) den entsprechenden Artikel inkl. dem Link zur Diskussion angeben. Ist das vollautomatisiert möglich? --Spielertyp (Diskussion) 13:12, 29. Jun. 2013 (CEST)Beantworten

Da ich gerade eine Anfrage zur KALP-Benachrichtigung auf meiner DS habe (vielleicht gehts das dann in einem Abwasch): Was soll der Bot denn genau machen?  @xqt 08:51, 14. Jul. 2013 (CEST)Beantworten

(Späte Antwort wegen Urlaubs) Die kurze Diskussion dazu findet sich hier: Wikipedia_Diskussion:Kandidaten_für_lesenswerte_Artikel#Auswertung. Meine erste Überlegung war, eine Vorlage zu haben, in welche der Bot am 10. Tage den Artikel einträgt. Ab dann sind die Kandidaten nämlich fällig. Zusätzliche Spielereien, die die Verwaltung erleichtern können, wären denkbar: Kopiervorlage für {{Lesenswert}} sowie die Stimmen. Vielleicht als Box zum Ausklappen. --Spielertyp (Diskussion) 23:46, 18. Jul. 2013 (CEST)Beantworten

Lesenswert-Vorlage funktioniert nicht, da müsste der Bot immer den Permanentlink austauschen sobald jemand den Artikel editiert - und auf neuen Unfug in der letzten Version (=potentielle Auszeichnungsversion) sollte man den Artikel eh prüfen. Und die Stimmen kann ein Bot auch nicht auswerten, solange nicht alle konsequent und perfekt die Vorlagen benutzen (wird nicht passieren). Es ist einfach, bei einem KLA-Besuch die ältesten Artikel anzuschauen, ich denke am Sehen liegt ein Auswertungsrückstand nicht, eher an mangelnden Stimmen (Verlängerung also sinnvoll) oder schwierigen Auswertungen die ggf. Fachwissen benötigen, um Einwände beurteilen zu können.
Nützlicher wäre ein Bot, der nach einer Auswertung die Verwaltungsseiten aktualisiert. Auf meiner Spielwiese habe ich dazu ein paar Infos gesammelt. --mfb (Diskussion) 17:19, 10. Mär. 2014 (CET)Beantworten

BKLs

Wir haben ja Zigtausend BKLs. Mich würde mal interessieren, wieviele davon nur blaue Links haben und wieviele nur rote Links. Kann das jemand mit vertretbaren Aufwand feststellen? --Matthiasb – Vandale am Werk™ (CallMyCenter) 16:22, 14. Jul. 2013 (CEST)Beantworten

Der zweitgenannte Fall wäre interessanter. --Leyo 17:22, 6. Sep. 2013 (CEST)Beantworten
Ich kümmere mich um den zweitgenannten Fall - falls mir jemand einen über die reine Statistik hinausgehenden Nutzen von erstgenanntem Fall erklärt, gerne auch darum. Falls ich mich innerhalb von einem Monat nicht hier melde, fragt bitte bei mir nach. Gruß --dealerofsalvation 07:45, 5. Jan. 2014 (CET)Beantworten

@Matthiasb:: Was lange währt … Also, in 13 Minuten Laufzeit hat mein Sourcecode von .338 Whisper bis Ahirwar 223 Ergebnisse (BKLs mit ausschließlich roten Links) gefunden. Schau mal rein, ich hab nur ein paar Stichproben überprüft. Das mal als erste Abschätzung. Besteht Interesse daran, den Code bis Z weiterlaufen zu lassen? Gruß --dealerofsalvation 21:10, 10. Mär. 2014 (CET) Beantworten

Sorry, dass ich das übersehen hatte. Es sind insgesamt 9957 Begriffsklärungen, auf die das zutrifft, eine vollständige Liste kann jeder Tool Labs User in unter einer Minute mit folgendem Kommandozeilenaufruf in eine Datei namens test.txt erstellen:

mysql --defaults-file="${HOME}"/replica.my.cnf --disable-column-names -e "SELECT CONCAT('* [[',page_title,']]') FROM page AS page1,categorylinks 
WHERE page_namespace=0 AND page_id=cl_from AND cl_to LIKE 'Begriffskl%rung' 
AND (SELECT count(*) FROM pagelinks,page WHERE pl_from=page1.page_id AND page_namespace=0 AND pl_namespace=0 AND page_title=pl_title)=0" -h dewiki.labsdb dewiki_p > test.txt

Das gute: Ich komme auf die gleichen ersten Seiten wie dealerofsalvation, also scheint alles korrekt. Also wenn eine vollständige Liste benötigt wird, bitte nachfragen. --APPER\☺☹ 21:43, 10. Mär. 2014 (CET)Beantworten

Ich wollte das damals im Rahmen einer Diskussion haben, weiß aber nicht mehr den genauen Zusammenhang, nur noch, daß irgendwer meinte, wir hätten zuviele BKLs mit nur roten Links. In der BKL-Kategoriesind 195.580 Seiten eingetragen, also scheinen knapp unter fünf Prozent aller BKLs nur rote Links zu haben. Eine konkrete QS-Maßnahme hatte ich nicht beabsichtigt.
@Dealerofsalvation:: Wenn du nix dagegen hast, würde ich die Seite gerne in meinen BNR rüberschieben, um mir diese "Stichprobe" bei Gelegenheit näher zu betrachten.
Grüße und danke an euch beide. --Matthiasb – Vandale am Werk™ (CallMyCenter) 20:41, 11. Mär. 2014 (CET)Beantworten
Ach und vielleicht noch die Buchstaben M und S dazu. Bei A scheinen ja BKLs mit geographischen Namen vorzuherrschen, viele Flüsse sind da dabei, aber derjenige, der das geschaffen hat, hat vielleicht irgendwo das Handtuch geworfen. --Matthiasb – Vandale am Werk™ (CallMyCenter) 20:45, 11. Mär. 2014 (CET)Beantworten
Habe die Anfangsbuchstaben M und S hinzugefügt. --APPER\☺☹ 22:31, 11. Mär. 2014 (CET)Beantworten
Fein. Matthiasb, wenn du magst, verschieb die Seite gerne, du darfst aber auch gerne dort wo sie ist nach deinem Gusto mit ihr verfahren. Gruß --dealerofsalvation 05:58, 12. Mär. 2014 (CET)Beantworten

js durch anderen Bot startbar?

Hallo, der Bot Benutzer:MerlBot/Touch/täglich.js läuft seit einem Dritteljahr nicht mehr korrekt.
Siehe WP:AA#Keine Warnhinweise mehr, dass der „Artikel des Tages“ und „Schon gewusst“ aktualisiert werden muss
und BD:Merlissimo#Benutzer:MerlBot/Touch/täglich.js.
Frage: Kann dieses Script kopiert werden und von einem anderen Bot, der keine Server- und Sprachprobleme hat, laufen gelassen werden? Gerald SchirmerPower (Diskussion) 14:53, 10. Aug. 2013 (CEST)Beantworten

Die WikiLinks liegen eigentlich nur auf einer .js-Seite, damit nur Admins dort herumeditieren können.
Was ist zu tuen? Um Mitternacht oder ein paar Minuten später, die Seite im Kontext einer deutschsprachigen Seite parsen und dann für jeden WikiLink einmal die Api-Action action=purge&forcelinkupdate=&titles= ausführen. Beispiellinks zum parsen gibt es auf Merls Diskussionsseite. Der Umherirrende 18:10, 10. Aug. 2013 (CEST)
Es würde auch ausreichen, folgende Befehle einmal am Morgen automatisch ausführen zu lassen:
1. Zur Setzung der Kategorie:
https://de.wikipedia.org/w/api.php?action=purge&titles=Wikipedia:Hauptseite/Artikel%20des%20Tages/Freitag&forcelinkupdate= (*)
https://de.wikipedia.org/w/api.php?action=purge&titles=Wikipedia:Hauptseite/Schon%20gewusst/Freitag&forcelinkupdate= (*)
https://de.wikipedia.org/w/api.php?action=purge&titles=Wikipedia:Administratoren/Anfragen&forcelinkupdate=
https://de.wikipedia.org/w/api.php?action=purge&titles=Wikipedia:Administratoren/Anfragen/Aufgaben&forcelinkupdate=
https://de.wikipedia.org/w/api.php?action=purge&titles=Wikipedia:Hauptseite/morgen&forcelinkupdate=
https://de.wikipedia.org/w/api.php?action=purge&titles=Wikipedia%20Diskussion:Hauptseite/Artikel%20des%20Tages/Intro&forcelinkupdate=
https://de.wikipedia.org/w/api.php?action=purge&titles=Wikipedia%20Diskussion:Hauptseite/Artikel%20des%20Tages/Vorschläge&forcelinkupdate=
https://de.wikipedia.org/w/api.php?action=purge&titles=Wikipedia:Hauptseite/Artikel%20des%20Tages/Bearbeitungshinweise&forcelinkupdate=
https://de.wikipedia.org/w/api.php?action=purge&titles=Wikipedia:Hauptseite/Schon%20gewusst/Bearbeitungshinweise&forcelinkupdate=
https://de.wikipedia.org/w/api.php?action=purge&titles=Wikipedia%20Diskussion:Hauptseite/Schon%20gewusst&forcelinkupdate=
https://de.wikipedia.org/w/api.php?action=purge&titles=Wikipedia:Hauptseite/Diskussionsseitenhinweis&forcelinkupdate=
https://de.wikipedia.org/w/api.php?action=purge&titles=Wikipedia%20Diskussion:Hauptseite&forcelinkupdate=
2. Zur Auffrischung der Seiten, die die Hinweise zur Aktualisierung verwenden:
http://de.wikipedia.org/w/index.php?title=Wikipedia:Hauptseite/Artikel_des_Tages/Bearbeitungshinweise&action=purge
http://de.wikipedia.org/w/index.php?title=Wikipedia:Hauptseite/Artikel_des_Tages/Freitag&action=purge
http://de.wikipedia.org/w/index.php?title=Wikipedia_Diskussion:Hauptseite/Artikel_des_Tages/Intro&action=purge
http://de.wikipedia.org/w/index.php?title=Wikipedia_Diskussion:Hauptseite/Artikel_des_Tages/Vorschläge&action=purge
http://de.wikipedia.org/w/index.php?title=Wikipedia:Hauptseite/Schon_gewusst/Bearbeitungshinweise&action=purge
http://de.wikipedia.org/w/index.php?title=Wikipedia:Hauptseite/Schon_gewusst/Freitag&action=purge
http://de.wikipedia.org/w/index.php?title=Wikipedia_Diskussion:Hauptseite/Schon_gewusst&action=purge
http://de.wikipedia.org/w/index.php?title=Wikipedia:Administratoren/Anfragen/Aufgaben&action=purge
http://de.wikipedia.org/w/index.php?title=Wikipedia:Administratoren/Anfragen&action=purge
http://de.wikipedia.org/w/index.php?title=Wikipedia:Hauptseite/Diskussionsseitenhinweis&action=purge
http://de.wikipedia.org/w/index.php?title=Wikipedia_Diskussion:Hauptseite&action=purge
http://de.wikipedia.org/w/index.php?title=Wikipedia:Hauptseite/morgen&action=purge
3. Weitere Auffrischungen, die gleich miterledigt werden können:
http://de.wikipedia.org/w/index.php?title=Wikipedia:Hauptseite&action=purge (zur Auffrischung der Hauptseite auf aktuellen Tag)
http://de.wikipedia.org/w/index.php?title=Hauptseite&action=purge (zur Auffrischung des Redirects)
http://de.wikipedia.org/w/index.php?title=Wikipedia:Hauptseite/morgen&action=purge (zur Setzung der Kaskadensperre)
Eventuell müssen nicht alle Zeilen ausgeführt werden, aber so funktioniert es auf alle Fälle. Danke. Gerald SchirmerPower (Diskussion) 14:39, 13. Aug. 2013 (CEST)Beantworten
Ich mach das. – Giftpflanze 19:27, 13. Aug. 2013 (CEST)Beantworten
Weißt du schon, ab wann der Bot läuft und um welche Uhrzeit? Und läuft der Bot mit den Seiten von Merlissimo oder werden die oben genannten Links aufgerufen? SchirmerPower (Diskussion) 02:57, 15. Aug. 2013 (CEST)Beantworten
Nachtrag: Aktuell scheint noch nichts zu laufen; die Warnhinweise kamen heute erst, nachdem ich die Befehle manuell gestartet hatte. Die mit (*) markierten LinkUpdates müssten ausreichend sein. Die Purges machen die Änderung dann auf den betreffenden Seiten sofort sichtbar. Die gelisteten Seiten sind alle, die ich kenne, auf denen die "Warnungen" angezeigt werden. Wieso in Merlissimos Liste neben +1 days auch -1 days steht, ist mir noch unklar. Gerald SchirmerPower (Diskussion) 09:52, 16. Aug. 2013 (CEST)Beantworten
Eventuell könnte der Bot gleich noch die Hauptseite purgen
http://de.wikipedia.org/w/index.php?title=Wikipedia:Hauptseite&action=purge
Das dürfte solche Anfragen minimieren. Gerald SchirmerPower (Diskussion) 13:20, 20. Aug. 2013 (CEST)Beantworten
Ein purge auf "Heute" könnte auch nicht schaden, damit wäre die Kaskadensperre wohl wieder funktionstüchtig:
http://de.wikipedia.org/w/index.php?title=Wikipedia:Hauptseite/Heute&action=purge
Siehe auch diese Diskussion. Gerald SchirmerPower (Diskussion) 03:26, 21. Aug. 2013 (CEST) Scheint erledigt zu sein. SchirmerPower (Diskussion) 15:14, 25. Aug. 2013 (CEST)Beantworten
Seit einem Monat starte ich die Links nun jeden Morgen manuell. Ein Aufruf über einen Batchjob (DOS) funktioniert bei mir aus unbekannten Gründen nicht. Ist denn wirklich kein Bot in der Lage, die zwei "Linkupdates" durchzuführen? Die ersten beiden Aufrufe (linkupdate) würden ja schon mal reichen, die purges habe ich gestrichen, falls das jemand zu viel vorkam. Gerald SchirmerPower (Diskussion) 00:37, 5. Sep. 2013 (CEST)Beantworten
Meiner läuft doch auch?! – Giftpflanze 22:42, 5. Sep. 2013 (CEST)Beantworten
Das wäre toll. Kannst du dazu nähere Angaben machen? Wie heißt der Bot, wann läuft er und welche Befehle führt er aus?
Ich habe jeden Abend kontrolliert, ob der Linkupdate funktioniert hat und die beiden morgigen Vorlagen (AdT + SG?) der Wartungskategie zugeordnet sind, das waren sie aber nicht (natürlich auch nur, sofern sie auch noch nicht geändert wurden). Die oben genannten purges habe ich dann auch manuell ausgeführt, weil die Seiten in den meisten Fällen (außer bei Änderungen) nicht "gepurget" waren und somit der Änderungsbedarf an AdT und SG?, sofern nötig, nie angezeigt wurde. Die Tests habe ich seit 10.8. immer zwischen 0:05 Uhr und 9:00 Uhr gemacht, da war nie ein Linkupdate durchgeführt worden.
Hinweis: Morgen früh kann das wieder getestet werden, da der AdT für den Folgetag (Samstag) noch nicht eingetragen wurde, bei Bedarf kann ich meine manuellen Tätigkeiten zwecks Überprüfung aussetzen. Einfachste Kontrolle ist es, die Seite WD:HS aufzurufen, da müsste dann heute Nacht ab 24 Uhr stehen, dass der AdT aktualisiert werden muss; steht das dort nicht, ist entweder der Linkupdate nicht gelaufen, der purge nicht oder beides nicht (oder jemand hat den AdT schnell eingetragen). Grüße, Gerald SchirmerPower (Diskussion) 23:10, 5. Sep. 2013 (CEST)Beantworten
Ok, die Wartungskategorie für Wikipedia:Hauptseite/Artikel des Tages/Samstag wurde richtig zugeordnet. Was aktuell fehlt, sind die purges der "Hinweisseiten", wie z. B. Wikipedia:Administratoren/Anfragen/Aufgaben oder Wikipedia:Hauptseite/Diskussionsseitenhinweis (komplette Liste oben). SchirmerPower (Diskussion) 00:18, 6. Sep. 2013 (CEST)Beantworten
Das ganze hat eine lange Geschichte mit vielen Problemen. Es gibt zwei Unterseiten:
Bei Purge geht es um die Aktualisierung der angezeigten Seite und des Sperrstatus. Bei Touch finden sich Fälle zur Aktualisierung von Linktabellen. Weil die Fragen oben aufkam: Bei den "Gestern" (-1)-Seiten soll eine Box eingeblendet werden, dass eine Aktualisierung nötig ist. Sie sind auch bei Touch eingetragen, weil die Entsperrung sonst nicht funktioniert.
Der Purge war ein api-Purge und Touch war ein Null-Edit. Umherirrender hat dann später eine Featureerweiterung forcelinkupdate von Purge hinzugefügt, der den Null-Edit ersetzen soll, was aber aus bisher nicht verständlichen Gründen nicht so ganz funktioniert hat. Ich habe deswegen weiterhim immer linkupdate und Null-Edit durchgeführt.
Ich und Guandalug haben diese Seiten gepurget und getouched. Wir hatten es beide nie solo hinbekommen, dass die Seitensperrugnen sicher funktionieren. Nur wenn wir die Bots beide haben laufen lassen war das Problem plötzlich gelöst.
Weil sich ein paar auf meiner Disk gemeldet hatten, habe ich erst vor kurzem bemerkt, dass es im März 2012 ein Softwareumstellung gab. Mein Bot hat immer das Resultat von http:////de.wikipedia.org/w/api.php?action=query&prop=links&titles=Benutzer:MerlBot/Touch/t%C3%A4glich.js als Eingabe genommen. Die Links waren vorher korrekt mit deutschen Wochentagsnamen, wie dies auch beim Rendern angezeigt wird. Durch irgendeine Änderung sind die Namen nun auf englisch, was meinen Bot die falschen Seiten purgen bzw. touchen lässt. Deswegen ja auch die Anfrage hier nach einem Ersatz.
Ich werde versuchen das wieder zu korrigieren (notfalls mit switch) und meinen Bot demnächst wieder im Betrieb nehmen. Aber wie oben beschrieben braucht es irgendwie zwei Bots - zum einen wegen dem Problem mit der Seitensperre, zum anderen zur Ausfallsicherheit. Es wäre sehr sinnvoll, wenn wir eine gemeinsame Konfiguration haben, wie z.B. meine beiden Bot-Unterseiten. Vielleicht irgendwo im Mediawiki-NS? Ich habe z.B. eben WP:Review bei Purge hinzugefügt. Die Seite wird seid einem Monat statt manuell nun von meinen Bot und wechselnden Unterseiten aktualisiert und ich benutze darin die time-Funktion zur Fettmarkierung den aktuellen RDT.
Was ist eigentlich mit der Bildsperrung der Hauptseitenbilder auf commons geworden? Dort hatte Guandalug immer kurz vor Mitternach die Bildliste aktualisiert, die dann in eine Kaskadensperrung kamen. Ich habe die commons-Seite im Moment nicht mehr im Kopf. Muss ich mal raussuchen. Merlissimo 01:13, 6. Sep. 2013 (CEST)
In der Tat: User:Bdk/de mit den Unterseiten https://commons.wikimedia.org/w/index.php?title=User:Bdk/de/images0&action=history, https://commons.wikimedia.org/w/index.php?title=User:Bdk/de/images1&action=history und https://commons.wikimedia.org/w/index.php?title=User:Bdk/de/images2&action=history wird nicht mehr aktualisiert. Werde ich übernehmen. Einen zweiten Bot brauch es hier vermutlich nicht. Nur mal im Hinterkopf halten, falls ich mal eines Tagen ausfallen sollte. Merlissimo 01:18, 6. Sep. 2013 (CEST)
Wie oben beschrieben, sollten die purges auch Hinweisseiten wie z. B. WP:AA/Aufgaben umfassen, damit die durch den Touch verursachten Zuweisungen auch sofort angezeigt werden und nicht erst nach dem ersten Edit der Seite.
Frage: Werden die Purges in Benutzer:MerlBot/Purge/täglich.js denn aktuell und fehlerfrei (Sprachproblem?) durchgeführt? Wenn ja, könntest du das, zumindest zeitweise, zum Editieren freigeben?
Wenn das Sprachproblem noch nicht gelöst ist, würde ich vorschlagen, einfach täglich alle 7 Wochentage zu erledigen, das dürfte keine Komplikationen hervorrufen und kaum mehr Performance kosten. Gerald SchirmerPower (Diskussion) 01:31, 6. Sep. 2013 (CEST)Beantworten
js-Seiten kann man nicht zum Editieren freigeben. Ich war damals noch kein Admin und mit den Links auf js-Seiten war dies eine gute Möglichkeit, damit ich aber auch jeder Admin die Konfig jederzeit ändern kann ohne die Gefahr von Vandalismus zu haben.
Ich muss dem Grund für die Sprach-Umstellung mal nachgehen und werde zu sehen, dass wie die generierten Links bald stimmen. Werde mich damit in den nächsten 3-4 Tagen beschäftigen und dachte, dass es jetzt auf die paar Tage auch nicht mehr ankommt. Merlissimo 01:39, 6. Sep. 2013 (CEST)
Das war mir neu, dass js-Seiten nur der Benutzer selbst und Admins editieren können. Wieso machst du es nicht so wie der CopperBot?
Da hast du Recht, auf die Tage kommt es nicht an. Zumal ja zumindest die Linkupdates/Touch aktuell zu funktionieren scheinen, entweder durch den Merlbot oder den Giftbot. Die Purges mache ich dann erst mal weiter händisch. Grüße, Gerald SchirmerPower (Diskussion) 02:25, 6. Sep. 2013 (CEST):::::Beantworten
Nachbemerkung: Falls jemand etwas testen wollte, ich führe die Purges nun gleich manuell aus, damit auf den fehlenden AdT noch aufmerksam gemacht wird. SchirmerPower (Diskussion) 17:15, 6. Sep. 2013 (CEST)Beantworten
Noch ein Nachtrag: Die Purges hatten keinen Effekt. Ich habe erst noch mal die beiden oben stehenden Linkupdates (aus meiner Liste) ausführen müssen, dann erneut die Purges (unterer Teil der Liste). Nun wird die richtige Information auf den betreffenden Seiten angezeigt. Das heißt, auch der erste Teil, der Touch bzw. Linkupdate, funktioniert noch nicht! Grüße, Gerald SchirmerPower (Diskussion) 17:25, 6. Sep. 2013 (CEST)Beantworten

Suche Bot, der die Artikel mit den meisten Vorlageneinbindungen findet

Ich suche einen Bot, der die Artikel mit den meisten Vorlageneinbindungen findet. Grund: Es sollten nicht mehr als 500 Vorlagen auf einer Seite eingebunden werden. Falls es so etwas schon gibt, wäre ich für einen Hinweis dankbar. [3] [4] [5] Kann das jemand erstellen? Die Liste könnte beispielsweise so aussehen. SchirmerPower (Diskussion) 15:32, 8. Okt. 2013 (CEST)Beantworten

@SchirmerPower: hab mal den aktuellsten Dump durchsucht: Benutzer:Croesch/Artikel_mit_den_meisten_Vorlageneinbindungen. Genügt dir das? Falls ja, viel Spaß damit. Falls nein, gib nochmal Bescheid. Habe einfach alle {{ gezählt und mal alle über 500 ausgegeben. --Croesch (Diskussion) 17:37, 16. Nov. 2014 (CET)Beantworten
Super, sieht gut aus. Ich hätte noch folgende Fragen, die aber nicht sehr wichtig oder dringlich sind:
  • Kann man die Artikel noch verlinken?
  • Könnte die Liste so wie das Beispiel in den Wikipedia-Namensraum verschoben werden?
  • Kann man die Liste regelmäßig aktualisieren (ich denke, 1x monatlich wäre sinnvoll)?
Danke! SchirmerPower (Diskussion) 19:50, 16. Nov. 2014 (CET)Beantworten
@SchirmerPower: klar, alle drei Punkte kann ich bejahen. Punkt 2 (Verschieben in Wikipedia-Namensraum) möchte ich aber nicht entscheiden. Gibt es dafür irgendwo Kriterien, was da reingehört und wer da was anlegen darf? --Croesch (Diskussion) 21:36, 16. Nov. 2014 (CET)Beantworten
Ich würde es nach Wikipedia:Liste der Artikel mit den häufigsten Vorlageneinbindungen verschieben (mit Kats: Kategorie:Wikipedia:Statistik und/oder Kategorie:Wikipedia:Vorlagenwartung) und auf der Seite Wikipedia:Wartung einbinden. Richtlinien sind unter H:NR. SchirmerPower (Diskussion) 12:19, 18. Nov. 2014 (CET)Beantworten

"Es sollten nicht mehr als 500 Vorlagen auf einer Seite eingebunden werden" - wer sagt das? --Distelfinck (Diskussion) 13:05, 18. Nov. 2014 (CET) Kategorie:Wikipedia:Maximale Seitengröße durch Vorlageneinbindungen überschritten --Distelfinck (Diskussion) 13:18, 18. Nov. 2014 (CET)Beantworten

Danke für die Kategorie, kannte ich noch nicht. Die "Vorgabe" ist oben indirekt im dritten Link verlinkt, genauer ist es hier zu lesen. SchirmerPower (Diskussion) 13:24, 18. Nov. 2014 (CET)Beantworten
Menschliche Arbeit ist kostbarer als Rechenzeit. Arbeit darin zu investieren die Vorlageneinbindungen zu reduzieren halte ich für Zeitverschwendung. --Distelfinck (Diskussion) 13:34, 18. Nov. 2014 (CET)Beantworten
Bitte beachte die o. g. drei Links. Die Artikel sind teilweise oder unter bestimmten Konfigurationen (schwache Rechnerleistung u. ä.) gar nicht mehr editierbar. Dies widerspricht mindestens dem Grundsatz der Barrierefreiheit. Dies umzusetzen steht IMO über dem Aufwand für eine Behebung. Daneben sind die Aufwände freiwillig, wichtig ist es, eine Arbeitsbasis zu schaffen, was hervorragend von Croesch umgesetzt wurde. SchirmerPower (Diskussion) 19:03, 18. Nov. 2014 (CET)Beantworten
"Sie sollte daher zusammen mit der Vorlage:Dts nicht öfter als ca. 500-mal auf einer Seite auftauchen." sagt für mich nur, dass diese eine Vorlage nicht öfter als 500-mal auf einer Seite stehen soll. Aber nix Allgemeines. Ich kann meine Liste gerne verlinkbar machen, weil das insgesamt alles sehr wenig Aufwand war. Wenn das Bedürfnis besteht, regelmäßig die Liste zu aktualisieren geht auch das, wenn es einen Mehrwert bietet. Aber zumindest nach Distelfincks Kommentar würde ich das für fragwürdig halten. --Croesch (Diskussion) 19:30, 18. Nov. 2014 (CET)Beantworten
Wie man sieht, stand meine Anfrage ja über ein Jahr hier und mit Wikipedia ging es trotzdem weiter. Also, die Abfrage ist nicht dringlich, aber nützlich. Eine regelmäßige Aktualisierung ist ebenso von Vorteil, um nicht immer den Entwickler (dich) mit einer Aktualisierung zu belästigen. Ja, der Bezug ist auf {{Dts}}, ich sehe aber keinen Grund, wieso das nicht übergreifend für sämtliche Vorlagen gelten sollte - Vorlage ist Vorlage, manche sind komplex, manche weniger, aber über 13.000 Vorlageneinbindungen in einem Artikel oder einer Liste sollten bedenklich bleiben, deshalb eben diese Auswertung. Ob nun 500 oder 600 Vorlageneinbindungen kritisch sind, kann möglicherweise ein Experte für Vorlagen besser beantworten, man kann ja mal spaßeshalber die Ewige Tabelle der UEFA Europa League editieren, dann sieht man, wie der Rechner zu kämpfen hat. Die in den Links genannten Fehlermeldungen habe ich länger nicht gehabt, das hängt sicher auch mit der immer weiter steigenden Rechnerleistungen zusammen. Nichtsdestotrotz bleibt die von dir erstellte Liste eine sinnvolle Auswertung. SchirmerPower (Diskussion) 20:14, 18. Nov. 2014 (CET)Beantworten
Das Limit mit 500 stimmt so nicht mehr. Ich selbst habe hier eine Seite mit über 700 Vorlagen, und es wird alles angezeigt. Das Maximum mit dieser Vorlage lag übrigen irgendwo bei knapp 750, wobei es darauf ankommt wieviel Texte expandiert wird. Das 2MB Limit kann man mit Vorlagen also nicht auf einfachen Weg überschreiten. Die Anzahl der Vorlagen sagt auch wenig aus, wie lange die Ladezeiten sind. Der Upload wird bei Verwendung von Vorlagen häufig sogar schneller, da weniger Bytes hochgeladen werden müssen. Das Expandieren der Vorlagen ist sowieso Serverarbeit, davon merkt der Client wenig bis nichts. Frohes Schaffen — Boshomi ☕⌨☺20:29, 18. Nov. 2014 (CET)Beantworten
Also alles so lassen? @SchirmerPower: habe mal die Links eingebaut. Ist die regelmäßige Aktualisierung noch gewünscht/sinnvoll oder ist das hiermit erledigt? --Croesch (Diskussion) 00:40, 20. Nov. 2014 (CET)Beantworten

Liste der Artikel mit den wenigsten Einzelnachweisen

Hallo, ich hätte gerne eine Liste der am schlechtesten belegten Artikel. Automatisieren lässt sich das natürlich nur durch einen groben Indikator. Stelle mir das wie folgt vor:

Vielen Dank --Zulu55 (Diskussion) Unwissen 14:48, 22. Okt. 2013 (CEST)Beantworten

Es gibt doch genug Artikel, in denen Belege gänzlich fehlen… --Leyo 15:07, 22. Okt. 2013 (CEST)Beantworten
Wollte ich auch gerade schreiben. Das Ergebnis sind dann ein paar hunderttausend Artikel ohne Belege. Gab es nicht mal eine Erhebung dazu? Ich meine, dass gut 40-50% der Artikel weder Weblinks, noch Literaturverweise, noch Einzelnachweise enthalten.
Ein guter Startpunkt zum Abarbeiten wäre vielleicht Kategorie:Wikipedia:Belege fehlen. Gruß, --NiTen (Discworld) 15:21, 22. Okt. 2013 (CEST)Beantworten
Hm, also daher würden mich eben Artikel erst ab einer bestimmten Größe interessieren. Dort kommt es doch (hoffentlich) deutlich seltener vor, dass lange Artikel völlig einzelnachweisfrei sind. Würde mich ehrlich gesagt wundern. An Kategorie:Wikipedia:Belege fehlen hatte ich auch schon gedacht, allerdings wird dieser Baustein ja auch dann (gefühlt sehr oft) vergeben, wenn wichtige Belege fehlen oder ein Abschnitt unbelegt ist. --Zulu55 (Diskussion) Unwissen 16:22, 22. Okt. 2013 (CEST)Beantworten
BK: Ich hab gerade versucht den Toolserver via https://toolserver.org/~hoo/catPageLinks.php?cat_name=Wikipedia%3ABelege+fehlen&depth=0&page_namespace=0&project=dewiki_p zu trietzen. Abfrage: Kategorie:Belege_fehlen sortieren nach Anzahl der Links auf die jeweilige Seite - in der Regel ein guter Indikator für besonders bedeutsame Artikel. Scheint ihn aber zu überfordern. Das geht ja in eine ähnliche Richtung. Vielleicht kann das jemand umsetzen und das Ergebnis auf einer WP-Seite speichern? --Zulu55 (Diskussion) Unwissen 16:32, 22. Okt. 2013 (CEST)Beantworten
Zu meinem Punkt oben: Bei Wikipedia:Redaktion Chemie/Artikel ohne Quellenangabe gibt es beispielsweise bestimmt auch etwas längere Artikel drunter. --Leyo 16:34, 22. Okt. 2013 (CEST)Beantworten
Hab mir jetzt mal WP:Liste der Artikel in Kategorie:Belege fehlen nach Größe ab 100.000 byte generiert. Das geht ja schon mal in die Richtung. Nur sind das ja leider einfach zum einen besonders große Artikel, zum anderen meist besonders umstrittene Artikel. Es können große Artikel jedoch auch schlecht belegt sein, ohne das der Baustein (zwingend) gesetzt wird. Würde mich daher immernoch über eine Umsetzung freuen. Als Einschränkung könnte man ja erstmal nur Artikel der Kategorie:Wikipedia:Belege fehlen untersuchen. --Zulu55 (Diskussion) Unwissen 16:42, 22. Okt. 2013 (CEST)Beantworten
Bei den allerwenigsten dieser Artikel fehlen komplett alle Belege - meist sind nur einzelne Absätze mit dem Baustein gekennzeichnet, und das oft genug auch zu Unrecht (bzw. in der Weise, dass der Setzer des Bausteins mit der Qualität der Belege nicht einverstanden ist). --Reinhard Kraasch (Diskussion) 01:03, 25. Okt. 2013 (CEST)Beantworten
Ist selten, kommt aber vor. Hier ein Beispiel: Ha'atelier. In diesem Beispiel waren nur ein Handvoll Namen aus einer langen Liste belegt. Ich habe die Personenliste wegen Irrelevanz aus dem Artikel entfernt, und plötzlich stand der zuvor scheinbar belegte Artikel völlig belegfrei da.  Frohes Schaffen, Boshomi ☕⌨☺ –  19:12, 27. Okt. 2013 (CET)Beantworten

Gibt es hier einen Botbetreiber, der diesen Vorschlag umsetzen könnte? --Leyo 15:32, 30. Okt. 2013 (CET)Beantworten

Können wir uns möglicherweise sparen. Denn neben diesem neuen "Save it"-Feature web.archive.org/record/$url kündigt blog.archive.org an, archive.org würde externe Links auf Wikipediaseiten archivieren, angeblich 5 Mio. neue URLs pro Tag (und außerdem tote per Bot durch eine Archiv-URL ersetzen zu wollen). --Thoken (Diskussion) 18:48, 30. Okt. 2013 (CET)Beantworten
@Thoken: Gibt es News zum Thema? --Leyo 23:49, 1. Jun. 2014 (CEST)Beantworten
Es sind zwar tatsächlich viele Links bei archive.org auffindbar, aber von vollständig oder annähernd vollständig kann keine Rede sein. Ein Bot der regelmäßig alle erreichbaren Links, die noch nicht auf archive.org auffindbar sind dorthin überträgt würde mMn schon Sinn machen. Schön wäre es auch, wenn größere Inhaltsveränderungen auf den Seiten erkannt würden, und dann ebenfalls neue Mementos angelegt würden. So eine Funktion bräuchte aber viel Platz fürs Zwischenspeichern. Ein derartiges, nicht öffentlich einsehbares Archiv könnte nebenbei so manche Probleme lösen. Frohes Schaffen — Boshomi ☕⌨☺00:08, 2. Jun. 2014 (CEST)Beantworten
Das Projekt ist anscheinend insoweit abgeschlossen, als dass nur noch eine geringe Anzahl Webseiten täglich archiviert wird, diese Anzahl nimmt seit einem halben Jahr kontinuierlich ab, von ca. 5000 auf zur Zeit ca. 500 täglich. Ich hab mal die "Downloads" auf [6] aufsummiert, danach hat der "Wikipedia Outlinks Crawler" des Archivs seit September 2013 etwa 17 Mio. "Downloads" erledigt. Rein zahlenmäßig könnten das externe Weblinks der englischen Wikipedia sein, ohne defekte und evtl. ohne früher archivierte. --Thoken (Diskussion) 20:09, 2. Jun. 2014 (CEST)Beantworten
Ich zitiere mal Benutzer:Merlissimo aus dieser Diskussion:
„Nach deutschem Recht in der Auftraggeber einer Archivierung (und nicht der eigentliche Archivierungsservice) dafür verantwortlich, dass diese korrekt und mit Erlaubnis der Rechteinhaber erfolgt. Aus diesem Grund fand sich bisher kein Botbetreiber von dewiki dazu bereit bei Diensten wie Wayback oder Webcite eine systematische Archivierung der Weblinks in Auftrag zu geben (was über eine Schnittstelle technisch möglich gewesen wäre). Um mal über den Tellerrand zu schauen: In Frankreich ist das Recht ähnlich erlaubt aber eine Ausnahme für Bildungseinrichtungen. Um dort die Bildungsausnahme zu unterstreichen wurde extra für frwiki ein Projekt entwickelt, dass die Archivierung übernimmt. Das amerikanische Recht ist hier deutlich freizügiger, weshalb auf enwiki immer mal wieder ein solcher Bot lief. Nun sind wir hier auf dewiki, die Server stehen aber in Amerika. Solange der Botbetreiber kein Deutscher ist, ist es also rechtlich unbedenklich.“
Es sind mehr rechtlicher Bedenken als technische Probleme die einen solchen Bot schwierig machen. --sitic (Diskussion) 21:47, 2. Jun. 2014 (CEST)Beantworten
Das spricht aber nicht gegen eine eigene Archivierung auf eigenen Servern, solange man darauf keinen öffentlichen Zugang gewährt, denn auch bei gelöschten Seiten besteht ein Recht auf Zitierung. Mit Hilfe so einer eigenen Archivierung könnten man dann feststellen, wenn sich eine Seite grob verändert hat, und möglicherweise die wesentlichen Fakten nicht mehr vorhanden sind. Über OTRS könnte man falls notwendig eine Bestätigung der Stichhaltigkeit der angeführten Belege anfordern, wenn diese nicht mehr online erreichbar sind. Frohes Schaffen — Boshomi ☕⌨☺22:05, 2. Jun. 2014 (CEST)Beantworten

Wikipedia:Lesenswerte_Artikel/nach_Datum automatisch pflegen

Moin! Kann jemand diese Arbeit in sein Botprogramm aufnehmen? Die Liste Wikipedia:Lesenswerte_Artikel/nach_Datum/2013 (für jedes Jahr eine) listet alle lesenswerten Artikel mit Datum ihrer Kür nebst lesenswerter Version-ID auf. Vielleicht ist es ja möglich, diese Liste automatisch zu pflegen, indem die relevanten Daten einfach aus dem jeweiligen Artikel ausgelesen werden. Dort befindet sich nämlich die Vorlage:Lesenswert mit zwei Parametern: Datum und Verions-ID. Dadurch würde man viel Zeit sparen wenn neue Artikel zu lesenswerten Artikel gekürt werden: Es entfiele ein ganzer Verwaltungsschritt von 7. Hier die entsprechende Diskussion dazu. --Spielertyp (Diskussion) 00:40, 2. Nov. 2013 (CET)Beantworten

Ich kann mir mal angucken, ob ich das hinbekomme .. besteht das Anliegen noch? Ist ja schon lange her. --Croesch (Diskussion) 03:39, 15. Nov. 2014 (CET)Beantworten

Ich habe nun in die Vorlage {{Webarchiv}} einen Wartungslink eingebaut, der alle Einbindungen ohne Linktext erfasst. Spezial:Linkliste/Vorlage:Webarchiv/Wartung/Linktext_fehlt. Wäre schön, wenn ein Bot dies, wie schon an anderer Stelle, übernehmen und die fehlenden Linktexte nachtragen könnte. Frohes Schaffen, Boshomi ☕⌨☺ –  03:50, 2. Nov. 2013 (CET)Beantworten

Welcher Bot trägt Linktexte, also Inhalt, nach? Ich gehe davon aus, dass dies händisch geschehen muss.
Gibt es einen speziellen Grund, warum Du einen Wartungslink gewählt hast und keine Wartungskat? Die hätte man nämlich via CatScan mit Themenkats verschneiden können, was eine zielgerichtete Abarbeitung leichter machen würde.--Mabschaaf 10:34, 2. Nov. 2013 (CET)Beantworten
Ich sehe gelegentlich Links mit einem Kommentartext "bot generated title", bzw. CactusBot hatte auch mal was vergleichbares. Daher war die Idee eines Botauftrags naheliegend.
• Der Grund für den Wartungslink war die Einfachheit die genügt, wenn die Hauptarbeit ein Bot übernimmt.
• Schlau wäre es würde der Bot dann die eine Wartungskat für das manuelle Nachkontrollieren setzen. Denkbar wäre die Vorlage {{Vorlage:Weblink ohne Linktext}} dafür einzusetzen.
• Kategorien sind dort überlegen, wo die Hauptarbeit manuell durchgeführt wird. Wartungslisten die von Bots nahe bei null gehalten werden machen als Kategorie weniger Sinn, da leere Kategorien an anderer Stelle zusätzlichen Aufwand verursachen.
 Frohes Schaffen, Boshomi ☕⌨☺ –  19:04, 2. Nov. 2013 (CET)Beantworten
Wer das mal mit dem "bot generated title" war, weiß ich nicht - das ist auf alle Fälle schon ziemlich alt.
Was CactusBot gemacht hat, kannst Du hier ausführlich nachlesen (incl. Beispiel- und Difflinks). Ich persönlich fand das klasse (und extrem hilfreich im Hinblick auf später vielleicht mal sterbende Links, für die mit vernünftiger Beschreibung viel leichter ein Ersatz zu finden ist). Schade ist dagegen, dass nach Abarbeitung der Kats "Chemie" und "Physik" das Projekt nicht weiter verfolgt wurde.
Aber: Die Abarbeitung war händisch! Die CactusBot-Edits blieben nach außen unsichtbar - und das war auch gut so, denn das, was der Bot an Daten von den externen Webseiten lesen konnte, war oft nur Schrott und auf alle Fälle immer formatierungspflichtig.--Mabschaaf 19:57, 2. Nov. 2013 (CET)Beantworten
Es wäre schon eine große Hilfe würde der Bot nur das "title"-Tag der Seite auslesen und in der Vorlage ablegen. Das muss nicht unbedingt sofort nach außen sichtbar sein. Frohes Schaffen, Boshomi ☕⌨☺ –  21:17, 6. Nov. 2013 (CET)Beantworten
Richtig, ein ausgelesener Seitentitel kann sehr viel Tipparbeit ersparen, insofern generell Zustimmung zu diesem Wunsch - allerdings nur, wenn der Text unsichtbar bleibt, bis ein Mensch nachkorrigiert/-formatiert hat. Insofern musst Du aber in der Vorlage noch einen zusätzlichen Parameter ergänzen, wo der Bot den Text hinschreiben soll, etwa autotext=, dann genügt es im Idealfall, wenn der nacharbeitende Mensch auto entfernt, damit der Text sichtbar wird. Bitte lege das so an, dass alle Artikel, bei denen ein autotext-Vorschlag gesetzt ist, in einer Wartungskat landen, das erleichtert die Abarbeitung ungemein.--Mabschaaf 23:04, 6. Nov. 2013 (CET)Beantworten
Ja, sobald der Bot den einen Titel einträgt, sollte die Seite in der Kategorie Kategorie:Wikipedia:Weblink ohne Linktext aufscheinen. Dort kann das dann per Hand abgearbeitet werden. Eventuell kann man dafür auch gleich die Vorlage {Vorlage|Vorlage:Weblink ohne Linktext}} direkt verwenden, oder man muss diese als Untervorlage in Webarchiv einbinden. Wie das genau funktionieren soll, sollte der pt. Botbetreiber vorgeben. Parameter und Untervorlage kann ich auf Wunsch einbauen. Frohes Schaffen, Boshomi ☕⌨☺ –  23:37, 6. Nov. 2013 (CET)Beantworten

Ref-Bot: "Eierlegende Wollmilchsau"

Hallo! Es wäre super, wenn man Internetlinks der Form "www.Text.Domain.BlaBlub.html" als Refernzen in die ref Klammern eintragen würde und dann ein Bot alles weitere automatisch erledigt. Abrufdatum, Datum der Veröf., Titel, Autor, usw automatisch anhand des Links nachtragen würde. Es wäre schon gut, wenn zunächst nur einige bekannte Onlinemedien darunter erfasst würden.--Alberto568 (Diskussion) 18:26, 9. Nov. 2013 (CET)Beantworten

Das würde nur bei Webseiten funktionieren, die eine feste Struktur haben, so dass ein Bot-Programm Autor, Titel etc. sicher identifizieren kann. Und das am besten seit Bestehen der Seite/WP, damit auch alte Refs korrekt verarbeitet werden. Außerdem sollten sich die Inhalte einer Seite nicht ändern, damit man nicht was falsches referenziert. In der Summe dürfte das nur relativ selten zutreffen. Schwebt dir eine konkrete Webseite vor? So allgemein kann man zur Machbarkeit sonst wenig sagen. Es wird jedenfalls keinen Bot geben, der beliebige Webseiten in obigem Sinne abarbeiten kann.-Berita (Diskussion) 12:08, 12. Nov. 2013 (CET)Beantworten
Beispiel sind:
  • www.sueddeutsche.de
  • welt.de
  • faz.net
  • spiegel.de
  • stern.de

usw. --Alberto568 (Diskussion) 18:55, 18. Nov. 2013 (CET)Beantworten

Kennst du tools:~dispenser/view/Reflinks? --Leyo 20:08, 21. Nov. 2013 (CET)Beantworten
Für einige Webseiten wäre eine technische Umsetzung durch die Auswertung der COinS-Daten sicherlich möglich. Zotero kann zumindest bei einigen der Webseiten die Daten automatisch übernehmen. Keine Ahnung, ob über das COinS-Format oder andere Spezifikationen. Ist die Frage, ob wer Lust hat seinem Bot das beizubringen. --Häuslebauer (Diskussion) 00:50, 3. Feb. 2014 (CET)Beantworten

Bitte diese Liste:Weblinksuche INSEE Canton-Links (natürlich nur ANR-Seiten) wie folgt umsetzen

//Regexp: von: 
"http://www.recensement.insee.fr/RP99/rp99/co_navigation.co_page\?nivgeo=P&theme=ALL&typeprod=ALL&codgeo=(\d{4,4})&quelcas=LISTE&lang=FR" 
//nach:
"http://www.insee.fr/fr/bases-de-donnees/esl/comparateur.asp?codgeo=cv-$1"
Ergebinis
//Beispiel mit ID 5520; aus:
"http://www.recensement.insee.fr/RP99/rp99/co_navigation.co_page?nivgeo=P&theme=ALL&typeprod=ALL&codgeo=5520&quelcas=LISTE&lang=FR"

//wird:
"http://www.insee.fr/fr/bases-de-donnees/esl/comparateur.asp?codgeo=cv-5520"

Davon betroffen sind etwas mehr als 1400 URLs im ANR und nochmal soviele Diskussionsseiten, die per SLA aufgeräumt werden müssen.  Frohes Schaffen — Boshomi ☕⌨☺   18:52, 8. Dez. 2013 (CET)Beantworten

Global sind es 4411 Links. Deshalb bin ich wohl mit MerlLinkBot dran. Dauert aber ein paar Tage. Merlissimo 20:57, 8. Dez. 2013 (CET)
Ich habe das Regexp auf \d{4,4} vier Stellen eingeschränkt. Bei den wenigen Ausnahmen passt der Ersatz nicht. Frohes Schaffen — Boshomi ☕⌨☺   21:36, 8. Dez. 2013 (CET)Beantworten
Die Links die nicht dem obigen Muster entsprachen habe ich inzwischen per Hand bearbeitet. Für andere Sprachversionen ist zu beachten dass es ID mit dem Muster "2[AB]\d{2,2}" //z.B. "2A61" oder "2B04" entsprechen. Frohes Schaffen — Boshomi ☕⌨☺   22:50, 8. Dez. 2013 (CET)Beantworten
@Boshomi Was kann ich mit nivgeo=C&codgeo=\d{5,5} machen? Bsp: http://www.recensement.insee.fr/RP99/rp99/co_navigation.co_page?nivgeo=C&codgeo=25510&theme=ALL&typeprod=ALL&quelcas=LISTE Merlissimo 22:37, 13. Mär. 2014 (CET)
Im konkreten Fall geht das nach http://www.insee.fr/fr/bases-de-donnees/esl/comparateur.asp?codgeo=com-25510 ;
Das dürfte aber kein Kanton sondern eine Commune sein (nivgeo-"C").
Anmerkung: Informativer wäre das Le dossier complet - pdf. Darauf würde ich nicht direkt verlinken. (Manuell würde ich da einen Hinweis im Linktext hinterlassen. etwa so: (siehe auch Le dossier complet (format pdf) - Commune de Ruffey-le-Château (25510), (pdf))) Frohes Schaffen — Boshomi ☕⌨☺15:14, 1. Mai 2014 (CEST)Beantworten

Weiter INSEE Muster:

//Regexp: von: 
"http://www.recensement.insee.fr/searchResults.action\?zoneSearchField=&codeZone=(\d{5,5})-COM"
//nach:
"http://www.insee.fr/fr/bases-de-donnees/esl/comparateur.asp?codgeo=com-$1"
Ergebnis

Siehe Diff für 49194. Davon Betroffen sind derzeit rund 194 Artikel  Frohes Schaffen — Boshomi ☕⌨☺   23:46, 10. Dez. 2013 (CET)Beantworten

Ria Novosti archivieren

Da die zeitnahe Einstellung der russ. Nachrichtenagentur Ria Novosti nun absehbar ist, wäre die Frage, ob ein Bot die Einzelnachweise durchgehen und, falls noch nicht geschehen, eine Archivierung veranlassen könnte. Könnte alles morgen oder übermorgen schon verschwunden sein... --PanchoS (Diskussion) 01:15, 10. Dez. 2013 (CET)Beantworten

Es geht um Spezial:Weblinksuche/*.rian.ru, oder? --Leyo 02:07, 10. Dez. 2013 (CET)Beantworten

Zunehmende Werbe- bzw. Kaufverlinkungen auf Seiten von Amazon.de und iTunes

Hallo zusammen. Ich hätte hier ein dringendes und wichtiges Anliegen. Mir ist gerade hier aufgefallen, dass leider anscheinend gerade bei sog. Mixtapes (aber vielleicht auch noch in vielen anderen Artikeln) Werbe- bzw. Verkaufslinks zu Amazo. de und iTunes gesetzt werden. Diese Links haben nichts mit dem Artikel zu tun, sondern sollen nur den Verkauf auf den jeweiligen Plattformen ankurbeln. So gesehen und inzwischen entfernt auf Maskulin Mixtape Vol. 1, Maskulin Mixtape Vol. 2 und Maskulin Mixtape Vol. 3! Es kann doch nicht sein, dass wir hier die Wikipedia werbefrei halten wollen (und sollen) und dann setzen die Rapper und andere Künstler aus ihren Alben raus den direkten Verkaufslink auf Amazon.de und iTunes! Es ist ja nicht nur so, dass hier vom einschlägigen Leser davon ausgegangen werden kann, dass WP:D den Kauf bei dem jeweiligen Unternehmen empfiehlt, sondern dass wir auch noch was an diesen Links verdienen! Warum werden hier die Artikel nicht systematisch nach allen Verlinkungen auf solche Verkaufsplattformen durchsucht und dann sofort gelöscht? Es kann doch nicht sein, dass mir das jetzt als Erstem hier aufgefallen ist, oder? Sind das Einzelfälle? Kann man da verlässliche Zahlen erhalten, wie viele Links direkt aus der WP:D im Augenblick auf Amazon.de gehen? Ich finde es unverantwortlich, dass wir hier mit Links die Positionierung und die Marktmacht eines einzelnen Unternehmens fördern und unterstützen. Also wenn hier ein Bot gebraucht wird, dann bitte einen Amazon-Link-Kill-Bot und einen iTunes-Link-Kill-Bot - und das bitte schnell... --DonPedro71 (Diskussion) 10:29, 16. Dez. 2013 (CET)Beantworten

Dazu gibt es die Weblinkssuche (oft muss man das im Einzelfall anschauen, ein blinder Bot würde mehr Schaden anrichten). Zu iTunes: Weblinksuche zu «itunes.apple.com», bei Amazon.com (plus Länderdomains) ist die Suche schwieriger, man müsste all die BNR- bzw. WNR-Seiten erst mal rausfiltern. Und evtl. einen Eintrag im Spam-Blackist (bei iTunes ist es einfach, bei Amazon dürfte es schwieriger sein)--Filzstift  10:33, 16. Dez. 2013 (CET)Beantworten
Erstmal danke für die schnelle Hilfe! Super, es sind 779 Verlinkungen zu iTunes und von amazon.de und amazon.com ca. 1724! Bekommen wir von Apple oder Amazon eigentlich Geld für die über 2.500 links, die deren Stores bewerben? Das haut mich ehrlich gesagt schon locker vom Hocker! Da wird jede Verlinkung zu einer privaten oder Vereinsseite rigoros nach ca. einer Minute durch den Löschtrupp beseitigt und hier werden ca. 2500 Links aus Artikeln zu kommerziellen Anbietern einfach locker hingenommen... Muss ich das jetzt verstehen??? Was sollen diese "Verkauflinks"? --DonPedro71 (Diskussion) 16:24, 16. Dez. 2013 (CET)Beantworten
Inhaltlich bin ich mit dir sowieso einverstanden, Wikipedia ist ja kein kostenloser Linkcontainer für Musiker, App-Entwickler etc. Mit der SBL kann man künftige Einfügungen wirkungsvoll verhindern, wie wir aber mit den bestehenden Links umgehen sollen, …da bin ich mir allerdings unschlüssig, … bevorzuge eher ein händisches Abarbeiten, um allfällige Kollateralschäden zu vermeiden. In einer konzentrierten Aktion schafft man diese 2'500 Links sicher auch (auch ich könnte da mithelfen, evtl. mit Hilfe eines kleinen Skripts bzw. mit AWB). Doch zuerst muss einmal darin Konsens bestehen. D.h. in einem ersten Schritt würde ich bei den SBL-Leuten anklopfen. Denn wenn das nicht in die SBL kommt, so nutzt das ganze Entfernen auch nichts, denn diese Links kommen schnell wieder. --Filzstift  21:44, 16. Dez. 2013 (CET)Beantworten
Gerade hier Antrag bei SBL gestellt. Danke für dein Angebot bzgl. der alten Links! Vielleicht finden wir noch ein, zwei Mitstreiter, dann könnte man das wirklich die nächsten Tage mal abarbeiten. Gerne natürlich per Skriptunterstützung. --DonPedro71 (Diskussion) 23:39, 16. Dez. 2013 (CET)Beantworten

BKL Typ 1 vs. 2/3 (Zündstoff für viele Diskussionen, durch BotListe objektivierbar?)

Seit Anbeginn der Einführung von BKL-Seiten gibt es immer wieder Diskussionen, ob für den speziellen Fall nun Typ 1 oder 2/3 besser geeignet wäre. Um die Diskussionen zu objektivieren wurde irgendwann die Regel eingeführt, dass BKL Typ 2/3 nur dann gewählt werden sollten, wenn ein bestimmter Artikel auf der BKL-Seite 10x häufiger als alle anderen in den letzten 90 Tagen abgefragt wurde (siehe WP:BKL). Mit dem neuen WikiViewStats sind die Abrufstatistiken ja mittlerweile blitzschnell einsehbar. Daher meine Frage, ob man folgende drei Wartungslisten erstellen und sie dann dem Projekt Wikipedia:WikiProjekt Begriffsklärungsseiten zur Verfügung stellen könnte:

  1. Nimm alle BKL-Artikel, die mindestens 90 Tage alt sind UND nicht den Zusatz "(Begriffsklärung)" enthalten (= BKL Typ 1). Prüfe, ob einer der dort verlinkten Artikel ( in den letzten 90 Tagen 10x häufiger als der zweithäufigst-abgerufene Artikel abgerufen wurde. Liste alle BKL-Artikel auf die diese Bedingung zutrifft nach dem Schema "BKL-Link --> Artikellink der 10x mehr abgefragt wurde (Zahl der Abfragen) --> zweithäufigst-abgerufener Artikellink (Zahl der Abfragen)"
  2. Nimm alle BKL-Artikel, die mindestens 90 Tage alt sind UND den Zusatz "(Begriffsklärung)" enthalten (= BKL Typ 2). Prüfe, ob einer der dort verlinkten Artikel in den letzten 90 Tagen 10x häufiger als der zweithäufigst-abgerufene Artikel abgerufen wurde. Liste alle BKL-Artikel auf die diese Bedingung nicht zutrifft nach dem Schema "BKL-Link --> Artikellink der am häufigsten abgefragt wurde (Zahl der Abfragen) --> zweithäufigst-abgerufener Artikellink (Zahl der Abfragen)"
  3. Prüfe alle BKL-Artikel, die im Zeitraum "Heute minus 90 Tage" bis "Heute minus 120 Tage" neu erstellt wurden. Prüfe gemäß 1.) und 2.)

Liste 1. und 2. könnten dem Portal als generelle Vorschlagslisten regelmäßig aktualisiert angeboten werden.

Liste 3. entspräche 1.+2., würde sich aber auf relativ neue BKL-Artikel beschränken, die quasi nach 90-120 Tagen "Testlauf" im ANR dann ggf. auf die passendere BKL-Form umgestellt werden könnten.

Wären solche regelmäßig aktuaisierten Listen mit vertretbarem Aufwand technisch machbar? So hätte man einen objektiven Standard nach dem entschieden werden kann. Sollte es im Einzelfall dann doch zu Diskussionen kommen, wo eine Ausnahme beschlossen wird, dann könnte man ja einen Hinweis im Artikelquelltext neben der BKL-Vorlage hinterlassen und die BKL auf einer "Ausnahmeliste" listen, so dass der Bot sie beim nächsten Lauf nicht berücksichtigt. Weihnachtliche Grüße, --BlueCücü (Diskussion) 13:49, 27. Dez. 2013 (CET)Beantworten

Nachtrag. Da hin und wieder auch Artikel in einer BKL verlinkt werden, die keine Homonyme sind, sondern nur als Platzhalter dienen, da das Homonym noch keinen Artikel hat (beispielsweise der Regisseur eines homonymen Films ohne Artikel oder die Band eines homonymen Albums ohne Artikel), dürften zur Sicherheit vielleicht nur die Links geprüft werden deren – sagen wir – ersten beiden Buchstaben/Zeichen mit den ersten beiden Buchstaben/Zeichen des BKL-Lemmas übereinstimmen. Ansonsten kämen bei einer eventuell erstellten Wartungsliste wohl zu viele falsche Treffer heraus. Auch der Link in der Vorlage auf Wikipedia:Begriffsklärung müsste von der Prüfung ignoriert werden. --BlueCücü (Diskussion) 18:23, 27. Dez. 2013 (CET)Beantworten
@BlueCücü: Das stabil zu coden dauert vermutlich ein ganzes Wochenende. Lohnt sich dieser Aufwand wirklich? Wer wird die Wartungsliste innerhalb welcher Zeit abarbeiten? --Krd 18:38, 13. Nov. 2014 (CET)Beantworten

Gibt es eigentlich schon einen Bot, der unzulässige Externe Links im Artikeltext sucht & mäht? Ich meine sowohl in de: als auch en: über die Jahre einen Anstieg dieser Problematik zu beobachten, insbesondere bei wenig be(ob)achteten Artikeln - und wie Löwenzahn verbreitet sich das gerade dort wo es einmal sitzt hartnackig weiter. Und da mir noch kein Bot aufgefallen ist, der sowas verbessert, hier meine Frage a) warum nicht b) oder doch c) und wenn jein dann könnten wirhüstel so einen doch mal starten, oder?? ein SmileysymbolVorlage:Smiley/Wartung/;)  --Trofobi[Grundprinzipien: gelöscht] 14:40, 27. Dez. 2013 (CET)Beantworten

Falls Du Dich auch für unerwünschte Interwiki-Links im Artikeltext interessierst, könnte Du Benutzer:Krdbot/ANR-Meta-Links als Arbeitsliste ansehen. --Krd 19:47, 29. Dez. 2013 (CET)Beantworten
gudn tach!
ich hab den request noch nicht verstanden. es gibt mehrere bots, die links ersetzen/loeschen koennen, z.b. user:CamelBot. was genau willst du denn wie ersetzen. -- seth 23:10, 29. Dez. 2013 (CET)Beantworten
Es geht in meiner Interpretation darum, Weblinks im Fließtext (also nicht in Weblink-Abschnitten) zu entschärfen, bzw. besser zu entfernen. Weblinks in Einzelnachweisen dürfen natürlich nicht nicht auslösen. Imho wird das besser händisch gemacht, Weblinks müssen entweder ganz entfernt, in Einzelnachweise umgewandelt oder in den Abschnitt Weblinks verschoben werden. Also besser eine Wartungsliste o.ä. – Giftpflanze 12:21, 5. Jan. 2014 (CET)Beantworten
Danke für Eure Antworten, besonders Giftpflanze: genau das hatte ich gemeint, hier noch ein paar konkrete Beispiele: [7], [8], [9], [10]. Ein Bot könnte solche Links auf verschiedene Arten behandeln, zB.:
a) ganz löschen und nur den [http://gelöschter.link Text] stehen lassen
b) automatisch in eine ref umwandeln: Text<ref>http://verschobener.link</ref>
c) mit Edithinweis verstecken: Text<!--"http://versteckter.link" wurde deaktiviert: keine externen Links im Artikeltext, bitte. Siehe: WP:EL-->
(Alles mit Hinweis auf WP:EL in der Zusammenfassung)
Oder gibt eine Liste, wo Artikel mit verdächtigen EL gelistet werden? Oder ein Tool, wo man solche Änderungen gleich als automatischen Editvorschlag im Editor aufgemacht bekommt und dann gleich die Änderung prüfen, anpassen und speichern kann?
Ausgenommen von so einem Suchlauf bleiben können imho die Abschnitte Literatur, Weblinks und Referenzen. --Trofobi[Grundprinzipien: gelöscht] 02:49, 17. Jan. 2014 (CET) PS nein, es geht mir nicht um Blacklist- oder Sprachversions-Links. PPS es gibt einzelne Artikel, die sind mit solchen Links komplett verseucht, aber insbesondere viele kleine, wenig beobachtete Artikel, in denen unerfahrene Autoren dann denken, das sei Standard hier und so weiterarbeiten.Beantworten
(Da keiner mehr Antwortet) Seht Ihr hier kein Problem? oder keine Lösung? oder…? Gibt es nicht wenigstens ein Tool, um solche Seiten überhaupt finden zu können? (bin gerade wieder nur durch Zufall über so einen Fall gestolpert... --Trofobi[Grundprinzipien: gelöscht] 01:07, 4. Feb. 2014 (CET)Beantworten
Gibt mal bitte ein Beispiel für ein Problem und die dazugehörige Lösung, am besten als Difflink. --Krd 20:04, 21. Feb. 2014 (CET)Beantworten
@Krd: Difflinks hatte ich gleich oben in meiner ersten Antwort vier Stück angegeben. Hier ein weiteres Beispiel. --Trofobi[Grundprinzipien: gelöscht] 01:16, 3. Aug. 2014 (CEST)Beantworten
@Trofobi: Ich behaupte mal vorsichtig, das ist nicht umsetzbar. Nicht zuletzt dein letztes Beispiel ist ja eins dafür, wie man es eben nicht machen sollte. --Krd 18:43, 13. Nov. 2014 (CET)Beantworten

Lagebezeichnungen (Geologie)

Nach einer Diskussion auf der Seite der Qualitätssicherung Geowissenschaften wurde der o.g. Artikel von mir gestern auf Ablagerungsmilieu verschoben, weil das Lemma nicht zum Artikel passte. Jetzt bestehen noch ca. 150 Weiterleitungen vom ursprünglichen Artikel, der damit aber eine regelwidrige Klammerweiterleitung ist. Kann das ein Bot umbiegen, damit Lagebezeichnungen (Geologie) anschließend gelöscht werden kann? Gruss --Diorit (Diskussion) 09:32, 9. Jan. 2014 (CET)Beantworten

Einbindung der Vorlage:ZDFmediathek

Hallo zusammen, hat jemand Zeit und Lust die Einbindung der Vorlage:ZDFmediathek vorzunehmen? Der Weblinksuche habe ich die derzeitigen Verlinkungen auf die ZDFmediathek entnommen und den jeweiligen Typ (vgl. Vorlage:ZDFmediathek#Parameter) ermittelt. Das Ergebnis dieser Vorarbeiten habe ich diesem Diskussionsbeitrag als auskommentierte Wiki-Tabelle beigefügt. Die übrigen Parameter lassen sich dem jeweiligen derzeitigen Weblink entnehmen. Nach der Umstellung der Links wird es für das Projekt Wikipedia:WikiProjekt Weblinkwartung/*.zdf.de einfacher sein, diejenigen Verlinkungen zu ermitteln, die nicht mehr verfügbar sind, um diese per Paramter Offline zu markieren und dadurch den Hyperlink auf die Mediathek zu entfernen. Gruß --WIKImaniac 19:26, 12. Jan. 2014 (CET)Beantworten


Schon gewusst?

Weil diese Diskussion im Sande verlief, mache ich hier eine Anfrage: Auf Wikipedia:Hauptseite/Schon gewusst/Teaser gibt es eine Hall of Fame, die seit einem Jahr nicht mehr gepflegt wird, da niemand Zeit dafür hat. Könnte die Click-through-Rate (einfach durchlesen, dann ist es verständlich) nicht ein Bot übernehmen?--84.149.186.197 11:38, 16. Jan. 2014 (CET)Beantworten

www.1911encyclopedia.org

www.1911encyclopedia.org ist nicht mehr verfügbar und damit sind etwa 900 Weblinks unbrauchbar. Ein Bot sollte sich darum kümmern (entfernen oder umlenken). 213.54.7.243 22:56, 11. Feb. 2014 (CET)Beantworten

Siehe dazu diese Diskussion.--Mabschaaf 23:00, 11. Feb. 2014 (CET)Beantworten

Vorlage:Infobox Unternehmen

Hallo, bitte die Parameter "Gewinn" und "Produkte" aus den Artikeln bzw. den Vorlageneinbindungen entfernen. Die Entfernung der Parameter wurde vor Jahren beschlossen, siehe hier und hier (kurz: Gewinn soll nicht verwendet werden weil die Gewinnermittlung nicht einheitlich ist und Produkte wird durch den Parameter Branche vollständig erschlagen). Beide Parameter sind schon länger nicht mehr in der Kopiervorlage und Doku enthalten und werden aus dem Vorlagencode entfernt sobald die Artikel korrigiert sind. Danke und Grüße --Millbart talk 16:11, 26. Feb. 2014 (CET)Beantworten

Willst du die Angaben ersatzlos löschen lassen oder in den Artikeltext verschieben? Ich habe mangels besserem Wissen die Angabe benutzt mit <ref>Geschäftsbericht</ref> als Quelle. Wenn die gesamte Zeile Gewinn gelöscht wird, geht der Einzelnachweis mit verloren.--kopiersperre (Diskussion) 00:13, 27. Feb. 2014 (CET)Beantworten
Im Idealfall hätte ich gerne eine Liste mit der jeweils entfernten Zeile, so dass ein ggf. entfernter Einzelnachweis an anderer Stelle, sofern nötig, eingebaut werden kann. Den Gewinn könnte man theoretisch in den Artikeltext übertragen nur müsste dann, um daraus eine enzyklopädische Information zu machen, die Gewinnermittlung und das wirtschaftliche Umfeld in dem jeweiligen Berichtszeitraum aus dem die Zahl stammt erläutert werden. Einzelne Bilanzwerte sind ohne zeitliche, räumliche und industrielle Einordnung kein enzyklopädisches Wissen, siehe auch die verlinkte Diskussion. --Millbart talk 08:08, 27. Feb. 2014 (CET)Beantworten
@Millbart: Zur Beurteilung habe ich mal die Vorlageneinbindungen auslesen, für Gewinne sind es 807 Einbindungen, für Produkte 5328 Einbindungen (jeweils mit "unausgefüllten" Einbindungen). Das sind noch nicht alle, die Kleinschreibungen der Parameter fehlen, soll nur vorerst einen Überblick liefern. </ref> kommt bei den Gewinnen 48 mal vor, bei den Produkten 10 mal. --sitic (Diskussion) 23:38, 27. Feb. 2014 (CET)Beantworten
Cool, danke für die Info. Wenn es möglich wäre eine Liste der Artikel mit Einzelnachweisen zu bekommen wäre das super. Bisher sieht es so aus als ließe sich das noch ganz gut manuell handhaben. Grüße --Millbart talk 23:50, 27. Feb. 2014 (CET)Beantworten
@Sitic: Mir ist leider gerade erst aufgefallen, dass der auch schon diskutierte Parameter "Bilanzsumme" noch nicht entfernt wurde. Wäre es möglich, ihn einem Abwasch mitabzuräumen? Die entsprechende Diskussion ist hier. Danke und Grüße --Millbart talk 18:39, 2. Mär. 2014 (CET)Beantworten
Hallo, ich habe dich nicht vergessen, leider ist in den letzten Tagen etwas dazwischen gekommen weshalb ich um etwas Geduld bitten muss, bis ich mich genauer damit beschäftigen kann. Grüße sitic (Diskussion) 22:46, 5. Mär. 2014 (CET)Beantworten
Moin @Sitic:, keine Hektik. :-) --Millbart talk 21:37, 10. Mär. 2014 (CET)Beantworten

Anzahl der geschützten Seiten

Hallo Botniki,

ich suche eine Statistik der geschützten Seiten. Wieviele haben wir heute, wieviele in den letzten Jahren? Gibt es sowas irgendwo schon?--kopiersperre (Diskussion) 12:15, 5. Mär. 2014 (CET)Beantworten

Es gibt Wikipedia:Liste der am längsten geschützten Artikel, wenn dir das hilft. IW 19:15, 5. Mär. 2014 (CET)Beantworten
Sind das alle? Kann man die automatisch auszählen?--kopiersperre (Diskussion) 23:03, 5. Mär. 2014 (CET)Beantworten

WP:Liste der bedeutensten Artikel ohne Bilder zu denen es in anderen Sprachversionen Bilder gibt

Ich wünsche mir eine Liste der bedeutensten Artikel ohne Bilder zu denen es in anderen Sprachversionen Bilder aus WP/Commons gibt.

  • Filter: nur Artikel, die in der de/WP keine Bilder haben aber in einer anderen Sprachversion ein Bild aus WP/Commons haben
  • Bedeutenste Artikel: diese Artikel sortiert nach der Anzahl darauf zeigender Links wie per CatScan2 möglich. Top 100 davon ausgeben.

Würde bei dringenden und leicht umzusetzenden Bebilderungen helfen. Wer hat Lust? --Zulu55 (Diskussion) Unwissen 16:46, 6. Mär. 2014 (CET)Beantworten

Ein Script um Bilder in anderen Sprachen zu suchen habe ich. Kommt ja als Bildervorschlag in meinen Wartungslisten, sofern {{Bilderwunsch}} im Artikel steht, oder beim AutoQS-Bot zum Einsatz. Nur eine dewiki-Artikelliste müsstest du mir geben. Die Catscan Top100 finde ich gerade nicht.
Das mit "nur Artikel, die in der de/WP keine Artikel haben" ist mit 16 Mio Kandidaten etwas viel und somit kaum realisierbar. Merlissimo 16:55, 6. Mär. 2014 (CET)
Ich habe gerade mal nachgeschaut: In meinen Bilderwunsch-Wartungslisten befinden sich zur Zeit 435 Bildervorschläge. Arbeitet kaum jemand ab. Merlissimo 16:59, 6. Mär. 2014 (CET)
Ok, statt für alle Artikel hätte ich das z.B. gerne für die Kategorie:Soziologie. https://tools.wmflabs.org/catscan2/catscan2.php?depth=7&categories=Soziologie&negcats=Regel&sortby=incoming_links&sortorder=descending&interface_language=de&doit=1 liefert die meistverlinkten Artikel der Soziologie. Die ersten 100 sind entsprechend die Top 100. Wenn du noch Lust hast: Dafür wäre so eine Auswertung toll. Gerne aber auch für alle Artikel der Kategorie:Soziologie (ohne Subkategorie:Regel). Gruß --Zulu55 (Diskussion) Unwissen 21:20, 6. Mär. 2014 (CET)Beantworten
Da es schon spät ist, habe ich einfach mein bestehendes Script genommen und den ganzen Soziologie-Baum ohne Ausnahme als Eingabe genommen.
Mein Script entspricht so nicht ganz deinen Forderungen, weil ich im Laufe der Zeit versucht habe eine möglichst optimale Ergebnismenge zu bekommen. Es werden "nur" die 250 größten Wikipedia betrachtet. Zudem bedeutet Bild=JPEG-Bild. Auch müssen die Bilder auf commons liegen (waren sonst zuviele Fair-Use Treffer) und pro fremdsprachigem Artikel kommt nur das mit der größten Auflösung in die Ergebnismenge.
Kat Regel rausnehmen erledige ich dann erst morgen Abend. Merlissimo 23:28, 6. Mär. 2014 (CET)
Ergebnis unter Benutzer:Zulu55/Bildersuche Soziologie. Habe es so gebaut, dass du eine kleine Vorschau siehst. Merlissimo 23:51, 6. Mär. 2014 (CET)
So, Kat "Regel" ist jetzt raus und auf die größten 270 Wikipedias erweitert (wobei ich bezweifele, das dies mehr Resultate etwas bringt). Schau mal, ob die das so passt. Merlissimo 22:49, 7. Mär. 2014 (CET)
Das ist ganz fantastisch! Vielen Dank. Vielleicht wende ich mich dann noch mal mit anderen Kategorien an dich. Und wie gesagt wäre eine Sortierung nach verlinkter Häufigkeit schön - vielleicht als sortierbare Tabelle nach beiden Merkmalen, Alphabet und Häufigkeit. Bei der Soziologie ist das aber für mich übersichtlich genug. Danke und Gruß - dann mach ich mich mal ans Werk. --Zulu55 (Diskussion) Unwissen 08:45, 8. Mär. 2014 (CET)Beantworten
Ich habe es nun nach Backlinkanzahl sortiert. Wenn du von Häufigkeit redest, denke ich irgendwie immer an Aufrufzahlen. Das sind im Moment reine MySQL-Queries. Für eine Tabelle müsste ich das noch erst in eine Scriptsprache stecken. Merlissimo 09:46, 8. Mär. 2014 (CET)
Wenn du das öfters haben willst, solltest du dir vielleicht überlegen eine Seite erstellen, wo du alle Bilder verlinkst, die bei zukünftigen Scans ignoriert werden sollen. Das würde für dich weniger Arbeit bei der Durchsicht neuer Reports bedeutet. Merlissimo 09:55, 8. Mär. 2014 (CET)
Hi Merlissimo, wäre es ein großer Aufwand für Dich, dieses Script auch über die Kategorie:Chemiker (incl. Unterkats) zu schicken und das Ergebnis in meinem BNR zu parken? Mit anderen Worten: Großartiges Hilfsmittel!--Mabschaaf 10:44, 8. Mär. 2014 (CET)Beantworten
Die Minerale haben ja automatisch einen Bilderwunsch. Die Vorschlagsliste dort hat Ra'ike schon durchgesehen. Ist aber bei Benutzer:Mabschaaf/Bildersuche nun auch enthalten (Achtung für langsame Internetverbindungen: Beim Aufruf der Benutzerunterseite werden knapp 3700 HTTP-Request gestellt und dabei knapp 17 MB heruntergeladen). Merlissimo 21:33, 8. Mär. 2014 (CET)
In meinem Wunsch hast Du offenbar zwei Buchstaben überlesen: Ich wollte nur die Kat:Chemiker (und Unterkats) - weil ich schon vermutet hatte, dass sonst zu viel Unbrauchbares mitkommt. Könntest Du bitte nochmals entsprechend filtern? Danke --Mabschaaf 21:39, 8. Mär. 2014 (CET)Beantworten
Ups, sorry. Ist korrigiert. TS hat übrigens gerade NFS Probleme, weshalb ich mich länger nicht einloggen konnte. Merlissimo 23:00, 8. Mär. 2014 (CET)
Prima, vielen Dank!--Mabschaaf 11:49, 9. Mär. 2014 (CET)Beantworten

GESTIS-Lemmata, die hier als Weiterleitung fehlen

Ich habe unter Benutzer:Kopiersperre/GESTIS eine Liste aller GESTIS-Lemmata angelegt. Einige, wie z.B. Lanthan(III)-oxid, haben dort einen anderen Namen als in der Wikipedia (Lanthanoxid). Ich wünsche mir also, die CAS-Nummern aus der Tabelle mit den CAS-Nummern in den Chemoboxen abzugleichen und bei Treffern in einer weiteren Tabellenspalte das zugehörige WP-Lemma anzugeben, falls dieses nicht identisch ist. Siehe auch die Diskussion dazu--kopiersperre (Diskussion) 17:13, 15. Mär. 2014 (CET)Beantworten

Ich hab grad nicht die Zeit, das vollständig zu machen, aber falls jemandem die CAS-Parameter helfen: [11]. --APPER\☺☹ 19:07, 15. Mär. 2014 (CET)Beantworten

Wartungsbausteine in Artikeln mit Israelbezug

Hallo werte Botbetreiber, nach langen Kämpfen durch Artikel mit Bezug zu Israel und der dabei festgestellten Häufigkeit von Wartungsbaustein jeder Coleur möchte ich gerne eine Liste wie diese, aber nicht auf Lückenhaft beschränkt. Ich würde mich freuen, wenn eine/r von Euch sich die Mühe machen würde :) Das Ergebnis kann gerne in meinem BNR unter Benutzer:Markus Schulenburg/Israel/Wartung veröffentlicht werden :D Mit ganz großem Dank im voraus. --Markus S. (Diskussion) 21:39, 27. Mär. 2014 (CET)Beantworten

PS: Bevor ich es vergesse bitte erst einmal nur den Bereich Kategorie:Politik (Israel)‎. --Markus S. (Diskussion) 21:40, 27. Mär. 2014 (CET)Beantworten
Ich habe dir mal das Ergebnis meines MerlBot-InAction Skript auf deine Unterseite gestellt. Entspricht zwar nicht so ganz deiner Anfrage, aber damit hast du zumindest schon mal alle Wartungsbausteine und der nächste Botbetreiber braucht den Katbaum nicht mehr zu bilden. Um nun noch das Alter der Bausteine zu bestimmen wäre @Dealerofsalvation der richtige Ansprechpartner. Merlissimo 01:09, 28. Mär. 2014 (CET)Beantworten
Danke für die schnelle Reaktion. Da ist mehr zu tun, als ich dachte :( Wo da die jüdischen Friedhöfe herkommen???? Aber es passt schon und das Alter der Bausteine ist vollkommen egal. Hauptsache die werden irgendwann einmal weg sein. --Markus S. (Diskussion) 05:36, 28. Mär. 2014 (CET)Beantworten
„Alter der Bausteine ist vollkommen egal“ – das verstehe ich jetzt mal so, dass ich ich hier nicht weiter tätig werden soll. Falls trotzdem du oder jemand anderes gerne eine Liste mit Alter der Wartungsbausteine hätte, gerne nochmal melden. In dem Fall danke an Merlissimo für die Vorarbeit, das wäre natürlich eine Erleichterung. Gruß --dealerofsalvation 06:41, 28. Mär. 2014 (CET)Beantworten
@Dealerofsalvation: Bitte nicht mißverstehen. Nur für die Abarbeitung von Wartungsbausteinen spielt das Alter in diesem eng begrenzten Bereich keine Rolle. Für den WBW ist das natürlich eine ganz andere Herausforderung, denn dort wäre es schon interessant Uralt-Bausteine (von vor zum Beispiel 2008 - gibt es die überhaupt?) abzuarbeiten. Das über diverse Beziehungen auch Friedhöfe, Schlösser in Heilbronn, ... und auch arisierte Unternehmen in dem Strang Kategorie:Politik (Israel) landen war mir gar nicht so klar. Dies hatte wiederum ein gewisses Aha-Erlebnis und erweitert wiederum den Horizont. --Markus S. (Diskussion) 07:35, 28. Mär. 2014 (CET)Beantworten
Was mich gerade ganz verstört: In den Artikeln Meretz-Jachad und Meretz ist ein Redundanzbaustein vorhanden. Auf der Wartungsseite taucht das aber gar nicht auf????? --Markus S. (Diskussion) 15:11, 28. Mär. 2014 (CET)Beantworten

MAK-Werte auslesen und in Infobox einfügen

Die SUVA veröffentlichte unter Grenzwerte am Arbeitsplatz 2014 (S. 40–122) eine ausführliche Liste von MAK-Werten. Hat jemand die Möglichkeit, die Werte auszulesen und anhand des Substanznamens und/oder der CAS-Nummer in die {{Infobox Chemikalie}} einzufügen (inkl. Einzelnachweis)? --Leyo 00:02, 15. Apr. 2014 (CEST)Beantworten

Wenn es irgendwem gelingen sollte die Daten in maschinelle verwertbarer Form aus dem PDF-Dokument zu extrahieren, wäre der Abgleich mit den Artikeldaten für mich machbar. Vielleicht lohnt es sich mal anzufragen, ob man die Daten auch im Rohformat bekommen kann, also die Datengrundlage zur Erstellung dieses PDF-Dokuments.--Cactus26 (Diskussion) 14:32, 22. Apr. 2014 (CEST)Beantworten
Unter DOI:10.1002/9783527682010 gäbe es eine alternative Quelle. Ist diese ev. besser geeignet? --Leyo 22:33, 10. Sep. 2014 (CEST)Beantworten
Evtl. auch anmailen, ob man das nicht als Exceldatei bekommt? ÅñŧóñŜûŝî (Ð) 18:31, 16. Sep. 2014 (CEST)Beantworten
Imho wäre es sinnvoller, die Werte in Metadatenvorlagen abzulegen, bzw. sobald dazu Klarheit besteht, auf Wikidata zu deponieren. Allerdings kann man aus dem Pdf keine Liste generieren, die bottauglich wäre, bzw. als Metadatenvorlage verwendet werden könnte. --Septembermorgen (Diskussion) 20:52, 16. Sep. 2014 (CEST)Beantworten
Deswegen meinte ich ja eine Excel-Datei, denn aus der lassen sich die Daten bot- oder WD-tauglich extrahieren. Wikidata erscheint mir hier aber sehr mühsam. Evtl. geht es auch mittels Unterseite der Infobox, dann benötigt man den Bot nur für das Entfernen der direkten Angabe aus den Artikeln. Eine Unterseite der Vorlage kann auch mit Lua-Modul arbeiten. ÅñŧóñŜûŝî (Ð) 20:00, 18. Sep. 2014 (CEST)Beantworten

Kategorie:Pkw-Modell & Klasse BoxenVerschmelzen

Kann mir jemand eine Liste liefern, in der alle Artikel enthalten sind, welche in der genannten Kategorie enthalten sind und die genannte Klasse enthalten? Gern auch als Liste in meinem Namensraum ;) DANKE! --darkking3 Թ 13:53, 20. Mai 2014 (CEST)Beantworten

@Darkking3: Mit der neuen Cirrus-Suche sollte folgende Abfrage das gewünschte Ergebnis liefern: incategory:Pkw-Modell insource:BoxenVerschmelzen. Gruß, IW 17:43, 9. Sep. 2014 (CEST)Beantworten
Nö, das funktioniert nachweislich so nicht ;) (BMW F01) --darkking3 Թ 18:30, 9. Sep. 2014 (CEST)Beantworten
Der Artikel enthält die Klasse BoxenVerschmelzen und ist hier eingetragen (mal mit Browser nach Titel suchen.) Hast du auch die Neue Suche in den Beta-Einstellungen aktiviert? Gruß, IW 18:44, 9. Sep. 2014 (CEST)Beantworten

Auskommentierungen

Ich möchte eine Liste von Artikeln, in denen Teile auskommentiert wurden. Da das sehr viele sind, soll die Liste auf z. b. die 1000 Artikel mit den größten auskommentierten Textstellen beschränkt sein. 129.13.72.196 14:24, 17. Jun. 2014 (CEST)Beantworten

Ich warte immer noch. Das kann doch nicht so schwer sein. 129.13.72.197 13:25, 15. Sep. 2014 (CEST)Beantworten

Verschobene Dateien

Hallo,
es kommt zwar nicht allzu häufig vor, aber wenn ein Admin eine Datei verschoben (oder umbenannt) hat, dann muss er/sie danach den dazugehörigen Antrag von der jeweiligen Dateibeschreibungsseite entfernen. Das ist zwar viel Arbeit, aber auf Dauer lästig. Wäre es möglich, das ein Bot die Vorlage:Datei umbenennen nach der Verschiebung entfernt? —Morten Haan · Wikipedia ist für Leser da 21:11, 25. Jun. 2014 (CEST)Beantworten

Wenn das noch aktuell ist, kann ich mal sehen, ob ich was Vernünftiges hin bekomme. Sollte der Bot schnell auf die Verschiebung reagieren? Oder würde es reichen, wenn der Bot stündlich bzw. täglich prüft, ob was abgearbeitet wurde? --Croesch (Diskussion) 03:37, 15. Nov. 2014 (CET)Beantworten

Vorlage:Eurohockey-net obsolet

Hallo liebe Botbetreiber, da die o.g. Seite nicht mehr existiert, bzw. nun unter .com zu finden ist, sind sämtliche Links überflüssig geworden. Da ein einfaches Ändern des ID-Parameters leider nicht möglich ist (z.b. {{Eurohockey-net|ID=1234}} auf {{Eurohockey-com|ID=1234}}, bitte ich darum, aus allen Artikeln, die die Vorlage Eurohockey-net verwenden, eben jene per Bot zu entfernen. Wenn es möglich ist, diese nur aus Artikeln zu entfernen, die ausschließlich die Vorlage verwenden und keinen weiteren Weblink, wäre das natürlich super. Die übrigen würde ich dann per Hand „umbiegen“. LG, --Avaholic 17:31, 27. Jun. 2014 (CEST)Beantworten

Die Diskussion darüber findet sich im Portal:Eishockey. --Tommes  20:48, 9. Sep. 2014 (CEST)Beantworten

Wikipedia:Redundanz/Knacknüsse - per Bot erstellte Liste

Wikipedia:Redundanz/Knacknüsse wurde anscheinend mal händisch erstellt und dann mehr oder weniger gepflegt. Jedenfalls scheint es recht aufwändig. Mein Vorschlag daher: Kann nicht ein Bot solch eine List erstellen. Und zwar: Grundgesamtheit sind alle Artikel, die aktuell einen Redundanzbaustein haben. Für diese Artikel wird Version für Version geprüft, seit wann sie ununterbrochen einen Redundanzbaustein tragen und das entsprechende Datum gespeichert. Der Bot erstellt dann eine WP:Liste der am längsten bestehenden aktuellen Redundanzen. Diese kann dann gerne in regelmäßigen Abständen aktualisiert werden.

Problemchen bei dem Vorschlag: Es ergibt sich eine Artikelliste, keine Liste der "Redundanzfamilien". Da das aber denke ich schwieriger zu lösen ist mein obiger Vorschlag. Denn manchmal kommen zu 2er-Redundanzen ja noch weitere Redundanzen dazu etc.

Ich bin gespannt. --Zulu55 (Diskussion) Unwissen 09:47, 15. Jul. 2014 (CEST) (Eine themenverwandte Anfrage gab es schon mal unter Wikipedia:Bots/Anfragen/Archiv/2009-1#.C3.9Cbersicht_der_Redundanzen_erstellen., damals insbesondere von Benutzer:Merlissimo bearbeitet.) --Zulu55 (Diskussion) Unwissen 09:54, 15. Jul. 2014 (CEST)Beantworten

Welcher Botbetreiber könnte diese Liste von Artikeln mit Interwiki-Links extrahieren und thematisch aufteilen? Dann könnten die Teillisten an die zuständigen Projekte/Redaktionen/Portale weitergereicht werden. --Leyo 00:45, 1. Aug. 2014 (CEST)Beantworten

Die meisten Fälle hatte ich unter dem Punkt Interwiki-Konflikt in meinen Listen (also die Fälle davon, wo die automatischen Bots fehlschlagen). Darauf gab es mehrere Beschwerden, dass man auf dewiki nicht für wikidata-Probleme zuständig sei. Merlissimo 00:53, 1. Aug. 2014 (CEST)
Hm… Korrekte Interwikis in de-WP-Artikeln erachte ich schon als Dienstleistung an (mehrsprachigen) Lesern.
Geht denn die Anzahl der betroffenen Artikel zurück oder stagniert sie? Gibt's dazu Statistiken? --Leyo 01:04, 1. Aug. 2014 (CEST)Beantworten
Ich hatte nach dem Beschwerden die Abfrage auf BKS, Frau, Mann und Intersexuelle beschränkt, wo die Fälle sehr klar sein sollten. Der Punkt Langlink-Konflikt auf Wikipedia:WikiProjekt_Begriffsklärungsseiten/Fließband/Aktuelles sieht noch recht voll aus.
Wenn das Feature wieder gewünscht werden sollte, kann ich es leicht wieder einführen. Dafür brauche ich dann aber auch ein klares Votum der Community, so dass die Kritiker (die sich meist schneller melden) überstimmt werden. Du bist bis jetzt der Einzige. Merlissimo 01:16, 1. Aug. 2014 (CEST)
Ich würde mich um die Hausviecher kümmern. Wäre gut, wenn ich zur Not Haushunde und Pferde ausklammern könnte, aber gerade im Bereich Geflügel gibt es zwischen den Verbänden Kontinentaleuropas und dem englischen Sprachraum (GB und USA und selbst zwischen PCGB und APA zum Teil erhebliche Unterschiede, wie. z. B. bei der Pekingente.)
Ziel: Benutzer:PigeonIP/Haustiere oder eine neue Unterseite auf Data: d:User:PigeonIP/Haustiere --PigeonIP (Diskussion) 07:39, 1. Aug. 2014 (CEST)Beantworten
Ich hätte gerne Listen für die Katbäume Chemie und Schweiz. Weitere Katbaum-Listen könnte ich „verteilen“. --Leyo 03:02, 16. Aug. 2014 (CEST)Beantworten
Ich habe eine neue Teilliste LLK2 eingeführt, der aber explizit aktiviert werden muss und standardmäßig nicht angezeigt wird (also Wert beim LISTS-Parameter bei MerlBot-Worklist ergänzen). Inhalt sind die Interwikikonflikte, die nicht von der Teilliste LLK mit den oben erwähnten KAT-Beschränkungen abgedeckt werden. Merlissimo 10:59, 18. Aug. 2014 (CEST)
Danke, ich hab's eingebaut. Mal gucken… --Leyo 21:29, 18. Aug. 2014 (CEST)Beantworten
Uff, sooo viele hätten's dann doch nicht sein müssen… :-( --Leyo 22:53, 18. Aug. 2014 (CEST)Beantworten

@Leyo: auf Benutzer:Inkowik/Wikidata gibt es etwas Statistik. Gruß, IW 17:53, 18. Aug. 2014 (CEST)Beantworten

Danke. Die betroffenen Seiten nehmen ab, aber ziemlich langsam… --Leyo 21:29, 18. Aug. 2014 (CEST)Beantworten

Noch eine Anmerkung: Die betroffenen Artikel enthalten meist Interwiki-Links auf Abschnitte. Das kann man natürlich nicht auf Wikidata übernehmen, allerdings sollen die wohl auch nicht aus den Artikeln entfernt werden. 85.212.59.26 21:38, 28. Aug. 2014 (CEST)Beantworten

MerlBot könnte Interwiki-Links auf Abschnitte ggf. aussortieren, sofern dies gewünscht wäre. --Leyo 02:46, 29. Aug. 2014 (CEST)Beantworten
Ich melde ja nur Konflikte und nicht alle lokalen Langlinks. Insofern sind reine lokale vorhandene Anker-Langlinks kein Problem in der Wartungsliste. Erst wenn Wikidata einen anderen Link (z.B. einfach ohne Anker) enthält wird es zu einem Problem, das gemeldet wird. Merlissimo 11:02, 9. Sep. 2014 (CEST)

Toolserver → Toollabs

Auf unzähligen Seiten sind noch Toolserver-Tools verlinkt, obwohl die dort nicht mehr vorhanden sind bzw. nach Toollabs umgezogen sind. Es fände es sehr hilfreich, wenn zumindest für die häufig verlinkten Tools die Links per Bot angepasst werden könnten. Ich würde ein Vorgehen nach Namensräumen vorschlagen:

  • (Seite): wohl nicht selten direkt im Quelltext drin
  • Vorlage: durchführen
  • Kategorie: durchführen
  • Hilfe: abzuklären
  • Wikipedia: durchführen, falls keine Diskussionsbeiträge enthalten sind (auf (CET)/(CEST) prüfen)
  • Benutzer: würde ich befürworten

--Leyo 00:11, 7. Aug. 2014 (CEST)Beantworten

Links auf die Stimmberechtigung tools:~guandalug/tools/stimmberechtigung.php und tools:~chm/stimmberechtigung.php. Die meisten davon auf gesperrten Seiten. Am besten durch Vorlage Vorlage:Stimmberechtigt ersetzen. --Nachcommonsverschieber (Diskussion) 11:54, 30. Aug. 2014 (CEST)Beantworten


Ich habe mittlerweile alle erreichbaren Einzelstücke gefixt oder ansonsten kategorisiert; auch unter Mitwirkung von Benutzer:Nachcommonsverschieber. Ich habe alle URL überflogen.

  • Statistik:
    • Es gibt heute insgesamt rund 42.000 URL im Projekt.
  • Namensräume:
    • Wir haben eine allgemeine Praxis, wie wir bei solchen Fixereien vorgehen:
      • Hier: Nur noch Namensräume 4, 10, 14, 100;
      • Ausschluss bei /Archiv im Seitennamen;
      • auch nicht AK, FzW, LK, MB (CU, SG, SP, VM, WP:Administ... haben /Archiv/).
    • Auf gesperrten Seiten, Diskussionen, in Archiven längst vergessener Angelegenheiten wird nicht mehr masseneditiert. Es ist auch völlig Wurscht, ob das Stimmberechtigungstool zu einer Wahl, die 2009 mal stattgefunden hatte, und wo der Gewählte schon vor zwei Jahren die Knöpfe wieder abgegeben hatte, jetzt noch auf Klick die Stimmberechtigung feststellen kann. Sollte das wirklich sechs Jahre später jemanden interessieren (Was will man damit anfangen? Was für Konsequenzen hätte das?), dann können die Daten in ein aktuelles Stimmberechtigungstool geworfen werden. Und ein Editcount in einer Angelegenheit von 2007 lieferte damals die Benutzerbeiträge bis 2007, heute die bis 2024; die damaligen Zahlen werden nicht mehr reproduziert. An einer FzW von 2008 herumzulinkfixen ist höherer Blödsinn.
    • Benutzer: Die können ihre Links selbst fixen, sofern sie noch aktiv sind; WP:LT hilft gern. Die überwiegende Zahl der Benutzer ist nicht mehr aktiv, und der Rest macht einen Zwergenaufstand, wenn ein Bot in ihren Seiten herumpfuscht.
    • Artikel, Hilfe, MediaWiki: Alle bekannt und kategorisiert. Zurzeit kein Fix mehr möglich. Artikel sind weniger als 20. Datei gibt es praktisch nicht (mehr); wenn WP:LT/giftbot/weblinksuche hoffentlich mal aus dem Streik kommt, kann man die ein oder zwei Dateibeschreibungsseiten noch mal suchen.
  • Arbeitsschwerpunkt:
    • Das sollte die Unterstützung der Portale, Redaktionen, WikiProjekte sein; die benötigen für ihre tägliche Wartungsarbeit Werkzeuge, insbesondere Catscan.
    • Die haben alle voneinander abgeschrieben und verwenden vielhundertfach URL mit gleicher Struktur, nur unterschieden durch:
      • Kategorien (Vorsicht: Separator zwischen mehreren Kategorien nicht mehr Pipe, sondern %0D%0A)
      • Unterkat-Tiefe
      • Alter in Stunden
      • Maximalgröße von Stubs
      • Linkanzahl von Stubs
    • Es gibt 7800 nicht mehr funktionierende URL auf
      //toolserver.org/~daniel/WikiSense/CategoryIntersect.php?wikilang=de&wikifam=.wikipedia.org&basecat=*-*-*-*-*&basedeep=.....&go=Scannen&userlang=de
    • Sie können zu jeweils mehreren Hundert gleichen Schemas ersetzt werden durch
      {{fullurl:toollabs:catscan2/catscan2.php|project=wikipedia&language=de&categories=*-*-*-*-*&...........&interface_language=de&doit=1#results}}
      • Verbreitet ist etwa: &mode=rc&hours= für „Neue Artikel“, jetzt max_age= mit only_new=1.
      • Ebenso öfters &mode=ss&size= und mehr für Stubs, jetzt smaller=
      • Trivial ist Ersatz von ~magnus/catscan_rewrite.php – Parameter sind gleich.
    • Nur in Portalen auf rund 210 Seiten:
      //toolserver.org/~erwin85/randomarticle.php?
      durch
      {{fullurl:toollabs:erwin85/randomarticle.php| und hinten dran }}
    • Bei vielen Portalen/Red. gibt es
      ~magnus/deep_out_of_sight.php?
      und
      ~magnus/deep_insight.php?
      als
      {{fullurl:toollabs:sighting/deep out of sight.php|
      und
      {{fullurl:toollabs:sighting/sighting/deep insight.php|
    • Bei knapp 50 WikiProjekten gibt es trivialen Ersatz für
      //toolserver.org/~kolossos/templatetiger/tt-table4.php?
  • Um die Beos nicht zu ersäufen, sollte versucht werden, nach Rumprobieren an Einzelschicksalen in einem automatischen Lauf möglichst viele URL in einem Edit zu fixen. Aber das wissen Botbetreiber ja selbst.
  • Ich hätte gern die Form mit {{fullurl:toollabs:, einer Pipe und hintendran irgendwo noch }} – falls denen eines Tages einfällt, auf wmftools.org umzurüsten, hätten wir schon mal die richtige URL und keinen Zoff mit Weiterleitung, CORS, unerlaubter Domain. (Die Domain scheint verkäuflich zu sein; ob man sie sich als Faustpfand sichern sollte?)
  • Insgesamt schätze ich, dass sich bei 10 % der URL (also 4000–5000) der Aufwand für eine Reparatur lohnen würde, weil mit den Tools noch gearbeitet wird. Der Rest steht auf Seiten, mit die nicht mehr genutzt werden, die niemand mehr liest, und die voller redlinks sind; oder die in Eigenverantwortung noch aktiver Benutzer liegen. Gerade letztere sind auch völlig bunt und individuell und können nicht systematisch repariert werden.

Liebe Grüße --PerfektesChaos 22:39, 2. Sep. 2014 (CEST)Beantworten

Danke für deine umfassenden Ausführungen!
Einen Punkt sehe ich anders als du: Die Mehrheit der Benutzer würde sich bestimmt über ein Linkfixen freuen. Die wohl wenigen Ausnahmen können ja den Bot revertieren. Ich jedenfalls würde es schätzen, wenn die toten Links auf meiner Benutzerseite (sowie ggf. auch in meinen .js-Seiten) aktualisiert würden. --Leyo 22:38, 3. Sep. 2014 (CEST)Beantworten
Die sind aber nicht schematisiert, sondern sehr individuell. Und stundenlang Leuten hinterherzubasteln, die schon seit fühf Jahren nicht mehr aktiv sind, während die Portale auf die Wartung warten, ist wohl nicht Sinn der Sache.
Da sich übrigens kein Bot rührt, habe ich übrigens mal begonnen, ein gutes 1000 der CategoryIntersect-URL auf catscan2 umzuschreiben.
VG --PerfektesChaos 16:15, 12. Sep. 2014 (CEST)Beantworten

 Info: Es gibt auch noch über 2000 tools.wikimedia.de – dabei handelt es sich um eine funktionsidentische Weiterleitung auf toolserver.org aus der Frühphase.

Ich habe in einer kleinen Marathon-Schlacht 700 Seiten mit CategoryIntersect editiert und diesen, soweit in catscan2 konvertierbar, weitgehend abgearbeitet. Ein paar Portale und Redaktionen könnten noch übrig sein; der Rest sind Archive, LD, Disku und Benutzer. Insgesamt sind wohl um 2000 dieser URL unmittelbar gefixt worden; dazu etwas trivialer Beifang plus Syntaxfehler. Aus der Statistik sind eher 2500 URL verschwunden, weil die Seiten teils dreifach ineinander eingebunden sind.

Jetzt habe ich für eine Weile keine Lust mehr. --PerfektesChaos 13:24, 15. Sep. 2014 (CEST)Beantworten

1911encyclopedia.org, eine Online-Version der Encyclopedia Britannica von 1911, ist down, wird aber im ANR 700-mal verlinkt. Per Bot liesse sich ggf. eine der folgenden Optionen umsetzen:

Die beiden ersten Varianten wären am besten, aber wohl auch am schwierigsten. --Leyo 00:54, 27. Aug. 2014 (CEST)Beantworten

auf Achive.org dürfte die gesammte Ausgabe liegen: <https://ia600809.us.archive.org/21/items/1911britannicatiff/>, bzw. <https://archive.org/details/EncyclopaediaBritannicaDict.a.s.l.g.i.11thed.chisholm.1910-1911-1922.33vols> Das Problem ist, wie man das auf vernünftige Weise verlinkt.  Frohes Schaffen — Boshomi ☕⌨☺19:23, 28. Aug. 2014 (CEST)Beantworten
Puh, keine Ahnung… --Leyo 00:10, 10. Sep. 2014 (CEST)Beantworten
Der 1. Weblink taugt gar nichts. Wer kann schon zum einmaligen nachschauen ein 23-GByte-Tar-Archiv gebrauchen.
Der 2. linkt auf eine laienhafte Archivierung. Die direkte Auflistung des Ordners hier zeigt, dass die 33 Bände nur als PDF-Dateien vollständig, aber inkonsistent benannt sind. Andere Formen, insbesondere der Onlinezugriff auf Seiten, sind unvollständig (nur 22 Bände konvertiert). Ergo auch kaum zu gebrauchen. Da hat jemand mittendrin die Lust verloren und aufgehört... Darüber hinaus sind die Links auf der Webseite unsortiert und einige PDFs haben mehrere Gigabyte (bis 4,4 GByte), was selbst bei schnellen 25 MBit/s eine Downloadzeit von 25 bis 30 Minuten bewirkt... eigentlich auch unbrauchbar. Hier könnte man allenfalls eine Vorlage schreiben, welche die richtige PDF des vollständigen Sets heraussucht und den Link (mit Dateigröße, bis 300 MByte) angibt.
ÅñŧóñŜûŝî (Ð) 19:13, 14. Sep. 2014 (CEST)Beantworten
Nachtrag: Die Linkliste wäre:
Präfix (Ordner) https://ia600406.us.archive.org/26/items/EncyclopaediaBritannicaDict.a.s.l.g.i.11thed.chisholm.1910-1911-1922.33vols/
Dateien:
Dateiname Datum Größe
01.EncycBrit.11th.1910.v.1.A-AND..pdf 05-Jan-2010 04:42 94.299.612
02.EncycBrit.11th.1910.v.2.AND-AUS..pdf 06-Jan-2010 05:17 118.241.117
03.EncycBrit.11th.1910.v.3.AUS-BIS..pdf 15-Mar-2011 04:19 112.123.985
04.EncycBrit.11th.1910.v.4.BIS-CAL..pdf 05-Jan-2010 05:27 104.923.429
05.EncycBrit.11th.1910.v.5.CAL-CHA..pdf 05-Jan-2010 05:49 113.600.623
06.EncyBrit.11th.1910.v.6.CHA-CON..pdf 05-Jan-2010 06:08 110.372.183
07.EncycBrit.11th.1910.v7.CON-DEM..pdf 06-Jan-2010 05:37 124.465.637
08.EncycBri.11th.1910.v8.DEM-EDW..pdf 05-Jan-2010 07:13 153.333.857
09.EncyBrit.11th.1910.v.9.EDW-EVA..pdf 05-Jan-2010 07:29 93.868.661
10.EncycBritan.1911.v.10.EVA-FRA..pdf 06-Jan-2010 06:06 122.983.626
11.EncycBrit.11th.1911.v.11..FRA-G..pdf 05-Jan-2010 08:06 116.631.036
12.EncycBrit.11th.1911.v.12.GIC-HAR.pdf 05-Jan-2010 08:56 123.398.255
13.EncycBrit.11th.1911.v.13.HAR-HUR..pdf 05-Jan-2010 09:16 126.011.033
14.EncycBrit.11th.1911.v.14.HUS-ITA..pdf 05-Jan-2010 12:31 117.659.922
15.EncycBrit.11th.1911.v.15.ITA-KYS..pdf 05-Jan-2010 13:48 126.762.981
16.EncycBri.11th.1911.v16.L-LOR..pdf 05-Jan-2010 14:47 140.176.819
17.EncycBrit.11th.1911.v17.LOR-MEC..pdf 05-Jan-2010 15:15 175.467.820
18.EncycBrit.11th.1911.v.18.MED.MUM..pdf 05-Jan-2010 15:38 86.194.969
19.EncyBrit.11th.1911.v.19.MUN-ODD.pdf 05-Jan-2010 16:03 106.053.558
20.EncycBrit.11th.1911.v.20.ODE-PAY.pdf 05-Jan-2010 16:37 118.806.506
21.EncycBrit.11th.1911.v.21.PAY-POL..pdf 06-Jan-2010 06:39 138.539.929
22.EncycBrit.11th.1911.v22.POL-REE..pdf 06-Jan-2010 06:57 115.389.905
23.EncycBrit.11th.1911.v23.REF-SAI..pdf 06-Jan-2010 07:22 122.869.508
24.EncycBrit.11th.1911.v24.SAI-SHU..pdf 06-Jan-2010 07:53 107.941.327
25.EncycBrit.11th.1911.v25.SHU-SUB..pdf 06-Jan-2010 08:20 148.830.473
26.EncycBrit.11th.1911.v.26.SUB-TOM..pdf 06-Jan-2010 13:22 153.523.501
27.EncycBrit.11th.1911.v.27.TON-VES..pdf 06-Jan-2010 14:38 107.406.039
28.EncycBrit.11th.1911.v.28.VET-ZYM..pdf 06-Jan-2010 15:02 138.579.455
29.EncycBrit.11th.1911..11th.v29.Index..pdf 07-Jan-2010 06:51 126.564.824
30.EncycBrit.12th.1922.v30.nv1.ABB-ENG..pdf 06-Jan-2010 16:47 191.404.607
31.EncycBrit.12th.1922.v31.nv2.ENG-OYA..pdf 06-Jan-2010 17:23 229.989.964
32.EncycBrit.12th.1922.v32.nv3.PAC-ZUL..pdf 07-Jan-2010 06:19 255.097.261
33.ReadersGuideEncycBrit.v33.1913..pdf 07-Jan-2010 05:38 17.920.388
ÅñŧóñŜûŝî (Ð) 19:33, 14. Sep. 2014 (CEST)Beantworten
* Wenn man das ordentlich machen will, sollte man die großen Files downloaden, die jeweils best verfügbare Qualität in Einzelseiten-Tiff-s zerlegen, mit ImageMagick die Tiff-s noch ein wenig aufbessern und mittels tesseract text und hocr-Files anlegen und das Ergebnis Seite für Seite auf Commons hochladen.
* Ist das erledigt bräuchte man noch ein Tool zum Editieren der hocr-Files direkt über dem Image. So ein Tool hätte recht offensichtlich großen langfristigen Nutzen, müsste aber von der Mediawiki entwickelt werden. Damit könnte man dann ganze Bibliotheken gemeinfreier Bücher online nutzbar und längerfristig weitgehend fehlerfreie durchsuchbare Texte daraus erstellen. Ohne Editiermöglichkeit sind die Ergebnisse leider recht fehleranfällig, wie man auch bei Archive.org sieht. Halbfertige Ansätze als Firefox-addon existieren, funktionieren aber zumindest bei mir nicht.  Frohes Schaffen — Boshomi ☕⌨☺20:45, 15. Sep. 2014 (CEST)Beantworten

Hilfe im Projekt Tennis

Hallo Botexperten, im WikiProjekt Tennis Pflegen wir Navigationsleisten, die die Top 10 Spieler eines jeweiligen Landes enthalten. Ein Bot könnte uns dabei helfen, die Navileisten nach der Aktualisierung in die verlinkten Artikel einzubauen und aus Artikel, die nicht mehr verlinkt sind, herauszunehmen. Eine Sammlung der Navileisten findet man auf der Benutzerseite von SuperAle unter Benutzer:SuperAle/ToDo nach der Überschrift Navigationsleisten Die zehn bestplatzierten Tennisspieler. Gruß, Korrektor123 (Diskussion) 17:39, 1. Sep. 2014 (CEST)Beantworten

Hier zwei Sammelseiten mit ALLEN Navigationsleisten, die betroffen sind: von der ATP und von der WTA. Der Link oben enthält nur die ATP-Leisten und auch Navileisten zu Turnieren, die nicht betroffen sind. Wir wollen doch die Ladies nicht vergessen, lieber Korrektor ;-) --DonPedro71 (Diskussion) 21:44, 1. Sep. 2014 (CEST)Beantworten
Man sollte sich eher mal fragen, wie sinnvoll Navigationsleisten sind, die per Bot aktualisiert werden müssen. Dieses Pseudo-Auswahlkriterium "Top 10 Spieler" ändert sich doch permenant. Heute ist ein Spieler drin und morgen wieder draussen und jedes Mal wird die Navigationsleiste eingefügt und wieder entfernt (und selbst angepasst). So eine Navigationsleiste sollte schon halbwegs stabil sein, um brauchbar zu sein.--213.61.99.155 12:16, 9. Sep. 2014 (CEST)Beantworten
Das sollte man sich wirklich fragen: Wikipedia:Löschkandidaten/9. September 2014#Vorlagen --FannyRoertle (Diskussion) 12:40, 9. Sep. 2014 (CEST)Beantworten
Man kann sich die Arbeit auch schaffen. Eigentlich sollte für sowas Wikidata zuständig sein… --Leyo 00:15, 10. Sep. 2014 (CEST)Beantworten

Wikipedia:Artikel, die es in allen Wikipedias geben sollte/Erweitert aktualisieren

Im Rahmen eines Kurier-Artikels rückte die erweiterte Liste in den Fokus. Sie ist allerdings auf den Stand von September 2012, seitdem hat sich die ursprüngliche Meta-Liste sehr, sehr stark geändert, doch per Hand ist eine Aktualisierung der vielen Daten kaum zu schaffen.

  • Die Links müssten von Wikidata auf deutsche Wikipedia-Artikel umgestellt werden
  • man müsste die bereits in der veralteten Version vorhandenen Lesenswert-, Exzellent- und Gesprochen-Versionen-Bapperl aktualisieren
  • Bei Rotlinks müssten dann auch ein Interwiki-Link zum en-Artikel (alternativ: Wikidata-Eintrag) hinzugefügt werden.

Kann das ganze auch per Bot ausgeführt werden?--CG (Diskussion) 18:22, 1. Sep. 2014 (CEST)Beantworten

Referenzierungsfehler finden

Wird innerhalb eines Artikels mehrfach der gleiche ref-name verwendet, so wird unter "Einzahlnachweise" schließlich nur eine Angabe angezeigt:

Quelltext Anzeige
Das Auto ist rot<ref name="Auto">Quelle rotes Auto</ref> Das Auto ist rot[1]
Das Auto ist blau<ref name="Auto">Quelle blaues Auto</ref> Das Auto ist blau[1]
Einzelnachweise
  1. a b Quelle rotes Auto Referenzfehler: Ungültiges <ref>-Tag. Der Name „Auto“ wurde mehrere Male mit einem unterschiedlichen Inhalt definiert.

Da ich schon mehrfach über diesen Fehler gestolpert bin, die Frage an Euch, ob mal jemand systematisch im Quelltext nach doppelt definierten ref-names suchen und eine Fehlerliste erstellen will.--Mabschaaf 08:53, 23. Sep. 2014 (CEST)Beantworten

@Mabschaaf: auch inklusive mehrfach definiert, aber gleichem Text? Habe mal ein Teildump ausgewertet und habe jetzt bei ~20000 Seiten schon 695 doppelt oder mehrfache definierte ohne Unterscheidung zwischen gleichem oder unterschiedlichem Reftext. Hier das Ergebnis der Teilauswertung: Benutzer:Se4598/BA_NamedRefs --se4598 / ? 23:14, 12. Okt. 2014 (CEST)Beantworten
@se4598: Vielen Dank für Deine Mühe. Dass das Problem solche Dimensionen hat, hätte ich nicht erwartet. Puh... Evtl. könntest Du beide Fälle in getrennten Listen aufnehmen?
  • Die eine (Dopplungen mit gleichem Text) könnte mM ganz problemlos ein Bot abarbeiten (falls dazu hier noch ein wenig Zustimmung kommt, da es zunächst eine kosmetische Korrektur ohne sichtbare Auswirkungen ist).
  • Bei der Zweiten (unterschiedliche Nachweise, die gleich benannt sind und daher nicht getrennt angezeigt werden) ist es mM zwingend erforderlich, aktiv zu werden. Auch die sollte ein Bot abarbeiten können, wobei die Herausforderung sein dürfte, in Fällen wie bei Sandra Bullock, die <ref name="Rotten Tomatoes" gleich 31× für unterschiedliche(!) URLs nutzt, festzustellen, ob vielleicht doch zwei exakt gleiche dabei sind.
Viele Grüße --Mabschaaf 08:48, 13. Okt. 2014 (CEST)Beantworten
@Mabschaaf: Mein Programmcode/regulärer Ausdruck deckt die fast alle Fälle von benannten EN ab, Sonderfälle wie zusätzlich gruppierte EN werden aber nicht gefunden, ist aber auch so genug Arbeit da ;-).
Von 2.951.082 untersuchten Artikeln haben 7,8 % benannte Einzelnachweise, wovon wiederum nun 5,7 % (13.177) von dieser Abfrage als Treffer erkannt wurden. Der Suchlauf wurde auf einem Datendump vom 6.10. ausgeführt.
Die komplexen Fälle sind nicht alle unbedingt schwierig oder inhaltlich falsch, sondern ein größerer Teil besteht auch aus "leeren" Refs (<ref name="refA"></ref>), die aber meistens wie die Dopplungen kein sichtbaren Fehler darstellen.
Nun, hier die Listen: einfache Dopplungen mit gleichem Text, komplexere Fälle
Ist ein bisschen Arbeit, aber viele der "komplexeren" Fälle kann man auch ohne Fachkenntnis auflösen. Vielleicht magst du ja ein Aufruf starten? Die Seiten dürfen frei bearbeitet werden und erledigte Fälle entfernt werden.
Grüße --se4598 / ? 21:12, 15. Okt. 2014 (CEST)Beantworten
Bevor ich hier versuche, andere Benutzer zur händischen Abarbeitung zu bewegen, hätte ich gerne eine Aussage von einem Botbetreiber, ob das auch vollautomatisch zu lösen wäre (evtl. unter Vernachlässigung der komplexen Fälle).--Mabschaaf 09:05, 16. Okt. 2014 (CEST)Beantworten

Das Ganze gehört eigentlich als FR in die MediaWiki-Extension, die ohnehin fehlerbehaftet ist.

  • Eine erneute Definition zu einem Bezeichner mit identischem Text ist bereits Grund für eine rote Warnmeldung.
  • Eine erneute Definition zu einem Bezeichner mit abweichendem Text ist Grund für eine rote Fehlermeldung nebst Eintrag in eine Wartungskategorie.
  • Die Extension kennt eine Liste aller Bezeichner mit allen enthaltenen Texten und könnte mit Leichtigkeit diese Fehlzuordnungen feststellen.
  • Es war aber ein in großer Zahl geäußerter Wunsch der Benutzer der deutschsprachigen Wikipedia, all diese im Zusammenhang mit den references auftretenden lästigen roten Meldungen zukünftig wegzulassen.
  • Diesem Wunsch wurde auch durch die WMF nachgekommen; Resultat unter HD:EN #braucht's kein references /> mehr?.

LG --PerfektesChaos 13:44, 19. Okt. 2014 (CEST)Beantworten

@PerfektesChaos: Es ist und bleibt einfach falsch. Vielleicht mag einer der technisch versierteren einen Bug dafür aufmachen (ping an Benutzer:Umherirrender), bis das aber einem MW-seitigen Fix zugeführt wird, muss ich vermutlich noch viele Kerzen auf Torten ausblasen.
Mit der references-Wartungskat/Fehlermeldung hat das mM auch nur bedingt zu tun, ich würde das nicht in einen Topf werfen.
Die eleganteste Lösung wäre mM, wenn einer der Fehlerlisten-Betreiber (ping an Benutzer:Merlissimo, Benutzer:Aka) sich dem Problem annehmen würde, regelmäßig danach sucht und auf Wartungslisten verteilt.--Mabschaaf 10:58, 20. Okt. 2014 (CEST)Beantworten
„Die eleganteste Lösung“ – ganz klar: nein.
  • Das ist eine originäre Funktionalität der MW-Software, die schon im Moment der Seitenvorschau weiß und melden kann, dass ein solches Problem erkennbar ist, und sogar vor dem Abspeichern noch den Autor auf das Problem hinweisen kann (rote Meldung). Bleibt es stehen, kann sie ggf. auch ohne Fehlermeldung ohnehin in die mittlerweile für solche Fälle eingerichteten Wartungskats einsortiert werden: Kategorie:Wikipedia:Syntaxfehler durch MediaWiki-Komponente erkannt.
  • Es ist mir ohnehin unbegreiflich, warum man bei der Bearbeitung ganzer Seiten nicht den roten Warnhinweis betreffend fehlendem references zumindest in der Seitenvorschau dem Autor zeigt; dass man das hässliche Zeugs dann nicht tagelang in der Artikel-Ansicht der Weltöffentlichkeit präsentiert, kann ich wenigstens noch nachvollziehen.
Unsere Bots werden pro Projekt von Einzelpersonen betrieben und räumen mühsam Strukturfehlern hinterher. Das ist okay, solange es sich um Besonderheiten der deutschsprachigen Wikipedia geht; etwa um sprachliche Fehler, logische Fehler beim EInsatz von Vorlagen usw. Aber eine weltweit einheitliche Problematik, die mühelos an der Wurzel zu lösen wäre (Auslösen einer System-Wartungskat), gehört innerhalb MW implementiert und nicht von jedem Projekt einzeln.
Die Cite-Extension für die ref steht sowieso seit Jahren in der Kritik, und es gibt unendliches Gemecker, wie MW das doch alles ganz anders lösen solle und dass Seitenzahlen in den ref möglich sein sollen; allerdings war noch keiner der Meckerköppe in der Lage, ein syntaktisches Konzept vorzulegen, wie zusätzliche Funktionalität überhaupt im Quelltext abgebildet werden solle, geschweige denn allgemeine Zustimmung dafür zu finden.
Bugzilla ist nicht mit mir, aber vielleicht nächstes Jahr mit Phabricator.
VG --PerfektesChaos 11:16, 20. Okt. 2014 (CEST)Beantworten
Mir geht um eine (elegante) Lösung für sofort, die können Fehlerlistenbetreiber durchaus leisten (zur Not tut es ja schon die Liste von se4598) - händisch gefixt werden müssen die vorhanden Fehler sowieso. Mir ist nicht ersichtlich, warum die Fehler, die offenbar leicht auffindbar sind, nicht an entsprechende Stellen via Fehlerlisten verteilt werden sollten. Oder ein Bot schafft die Aufgabe und räumt halt ein Mal im Monat durch.
Dass das alles natürlich nur eine Krücke ist und dass das Vermeiden von neuen Fehlern dieser Art durch zusätzliche MW-Funktionalität absolut notwendig ist, ist keine Frage. --Mabschaaf 11:29, 20. Okt. 2014 (CEST)Beantworten

Datenabfrage: war im Einleitungssatz bei lebenden Personen

Bei Artikeln über lebende Personen habe ich schon mehrfach gesehen, dass nach dem Rücktritt von einem Amt oder als Aktivsportler die Einleitung folgendermassen geändert wurde:

  • '''<Name>''' (* <Geburtsdatum/-ort>) ist ein(e) <Tätigkeit>

in

  • '''<Name>''' (* <Geburtsdatum/-ort>) war ein(e) <Tätigkeit>

statt in

  • '''<Name>''' (* <Geburtsdatum/-ort>) ist ein(e) ehemalige(r) <Tätigkeit>

Mit der normalen Suche lassen sich Fälle mit war nicht finden. Kriegt es jemand mittels Datenbankabfrage hin? --Leyo 12:53, 28. Sep. 2014 (CEST)Beantworten

@Leyo: Mit einem gewissen Ungenauigkeitsfaktor sollte es gehen, wenn auch die Vorlage:PD im Artikel existiert. Wenn Du es noch brauchst, erklär mir Deine Überlegungen und Parameter genauer auf Benutzer:TaxonBot/PD. Vielen Dank, -- Doc Taxon @ Disc –  BIBR 16:45, 15. Okt. 2014 (CEST)Beantworten
Die Einschränkung auf Artikel mit Vorlage:PD ist OK. Wie meinst du das mit den Parametern? Viel mehr als oben steht habe ich nicht zu bieten. ;-) --Leyo 00:37, 1. Nov. 2014 (CET)Beantworten

Leere Einzelnachweise

Wäre es möglich, abzufragen, in welchen Artikeln <references /> angegeben ist, ohne dass einen Einzelnachweis gibt? 173.209.57.252 18:42, 4. Okt. 2014 (CEST)Beantworten

Ist sicherlich nicht ganz einfach. Manche Vorlagen verwenden Ref-Tags und sind dann auf das Vorhandensein des References-Tags angewiesen.  Frohes Schaffen — Boshomi ☕⌨☺19:25, 4. Okt. 2014 (CEST)Beantworten
In dem Fall gibt es auch eine Fehlermeldung, nicht aber im umgekehrten. Nun, ein lerer Beleg-Abschnitt stört nicht unbedingt.--XanonymusX (Diskussion) 12:28, 5. Okt. 2014 (CEST)Beantworten
Welche Fehlermeldung meinst du? Mediawiki fügt mittlerweile Referenzen immer ganz am Ende an, wenn kein refernces Tag angegeben ist. --2A02:810D:10C0:6F4:20DB:4906:DC9A:6E47 22:46, 5. Okt. 2014 (CEST)Beantworten
Gemeint war Kategorie:Wikipedia:Seite mit fehlendem References-Tag‎, die wird aber z.Zt. nicht gesetzt.--Mabschaaf 14:38, 8. Okt. 2014 (CEST)Beantworten
Solche Vorlagen könnte man in einem zweiten Schritt von der Abfrage ausnehmen. 129.13.72.197 14:31, 8. Okt. 2014 (CEST)Beantworten
Habe eine solche Liste gemacht: Benutzer:Croesch/Leere_Einzelnachweise. Lasst mich wissen, wenn ich es nochmal laufen lassen soll und dabei gewisse Vorlagen auch als ref-Tag werten soll. --Croesch (Diskussion) 16:13, 16. Nov. 2014 (CET)Beantworten
Danke, sieht gut aus. Folgende Vorlagen sind mir spontan aufgefallen: Vorlage:Infobox Ort in Tschechien, Vorlage:Infobox Gemeinde in Italien, Vorlage:Infobox Ort in der Türkei, Vorlage:Infobox Chemikalie, Vorlage:BS-header-Beleg, Vorlage:Infobox Kreditinstitut, Vorlage:Infobox Fluss, Vorlage:Infobox Berg. Man könnte eventuell erstmal alle Artikel ausnehmen, die "{{Infobox" enthalten. --APPER\☺☹ 16:31, 16. Nov. 2014 (CET)Beantworten
Bitte :) Okay, dann mache ich erst einmal ohne die genannten und dann einmal komplett ohne Infobox. --Croesch (Diskussion) 17:05, 16. Nov. 2014 (CET)Beantworten
@APPER: habe den Inhalt aktualisiert. Oben ohne die von dir genannten Vorlagen, unten ganz ohne Infoboxen. --Croesch (Diskussion) 21:53, 16. Nov. 2014 (CET)Beantworten
Sieht gut aus. Da können wohl einige leere Abschnitte aufgeräumt werden ;). Das einzige, das ich (zumindest im unteren Teil) noch gefunden hab, sind references in Kommentaren, siehe Artikel Medizincontrolling. Also HTML-Kommentare rausfiltern wär super. Ansonsten super so. --APPER\☺☹ 22:03, 16. Nov. 2014 (CET)Beantworten
Wenn die Links in der Liste noch klickbar wären, wärs super. Es sind übrigens immer noch Artikel mit auskommentiertem Einzelnachweiskapitel enthalten, siehe z. B. Schachweltmeisterschaft 1894. 85.212.29.110 22:38, 17. Nov. 2014 (CET)Beantworten
@APPER: abe die HTML-Kommentare raus genommen. Und bis zu dem Kommentar gerade war ich mir super sicher, dass jetzt alles richtig ist :) Klickbare Version kommt gleich. Ich prüfe die Schachweltmeisterschaft 1894. --Croesch (Diskussion) 23:04, 17. Nov. 2014 (CET)Beantworten
Einzelnachweise sind zwar auskommentiert nicht aber das Tag! Deswegen ist es vollkommen richtig, die Seite drin zu haben:
<!-- == Einzelnachweise == --><references/> --Croesch (Diskussion) 23:07, 17. Nov. 2014 (CET)Beantworten
Genau, und das gleiche gilt auch für die WMs 1889, 1890 und 1892. Wobei man sich auch auf den Stand stellen könnte, das das syntaktisch nicht sauber ist und entweder entfert oder komplett auskommentiert gehört. 85.212.29.110 23:09, 17. Nov. 2014 (CET)Beantworten
Ja .. wusste nicht, dass man wenn man die Überschrift hat, aber auskommentiert dann auch <references> keine Überschrift erzeugt. Naja. Auf jeden Fall sind jetzt Links drin und ich würde sagen, kann los gehen mit dem Aufräumen. Oder fehlt noch was an der Liste? Aus meiner Sicht bin ich dann fertig mit der Aufgabe!? Wie seht ihr das? --Croesch (Diskussion) 23:25, 17. Nov. 2014 (CET)Beantworten

Wiktionary: Sortierung der Textbausteine, Ergänzungen von ähnlichen Wörtern

Das Wiktionary bräuchte einen Bot, welcher die einzelnen Textbausteine nach dieser Reihenfolge sortiert. Zudem wäre auch ein Bot nötig, welcher ähnliche Wörter unter den Textbaustein "Ähnlichkeiten" einträgt. Wie sich die Wörter maximal unterscheiden sollten, wäre noch festzulegen. Grüße Impériale (Diskussion) 16:36, 8. Okt. 2014 (CEST)Beantworten

Anfrage wurde auch hier gestellt. --Impériale (Diskussion) 16:54, 10. Okt. 2014 (CEST)Beantworten
@Impériale: das klingt jetzt erst mal schön kompliziert. Präsentier mir mal ein schön ungeordnetes Beispiel und die Ordnung dazu. Dann schauen wir weiter. Beispiel auf wikt:user:TaxonBot/Wikt. Danke sehr, -- Doc Taxon @ Disc –  BIBR 15:37, 15. Okt. 2014 (CEST)Beantworten
Diese Anfrage ist aktuell im Programmierstatus durch TaxonBot. -- Doc Taxon @ Disc –  BIBR 23:50, 16. Okt. 2014 (CEST)Beantworten

Diese Anfrage ist nach Rücksprache mit Benutzer:Doc Taxon nun im Programmierstatus durch DafoBot. Ich schlage vor, weitere Diskussion wieder nach wikt zu verlegen. Vllt hierher: de:wikt:Benutzer_Diskussion:Impériale--Croesch (Diskussion) 19:30, 18. Nov. 2014 (CET)Beantworten

Diskussion am besten hier hin: de:wikt:Benutzer_Diskussion:DafoBot/Sortierung_der_Textbausteine --Croesch (Diskussion) 20:15, 18. Nov. 2014 (CET)Beantworten
Dieser Botauftrag wird gerade von DafoBot (Beiträge) bearbeitet. Um Konflikte zu vermeiden, warte bitte mit anderen Aktionen, bis diese Markierung entfernt ist, oder kontaktiere den Betreiber.

Bildersuche in fremden Wikis

Gibt es eine Möglichkeit die Seiten mit "Bilderwunsch" durchzugehen und zu testen ob es in einer anderen Wikpedia bei dem entsprechen Artikel ein Bild gibt? Die Suche nach "File:" oder "Image:" wäre da der erste Schritt, die unzähligen lokalen Varianten der zweite. Und dann eine Wartungsliste erstellen.

Das ist ein etwas anderer Wunsch als weiter oben. Es müssteneben händisch geeignete Bilder nach Commons verschoben werden, bevor sie bei "uns" eingefügt werden können. --Eingangskontrolle (Diskussion) 20:08, 15. Nov. 2014 (CET)Beantworten

Finde ich schwierig bis unmöglich, das vernünftig zu machen. Also sicherlich ist es möglich alle Vorlageneinbindungen zu checken, ob in einer anderen Sprache ein Bild eingebunden ist. Aber geprüft werden, ob das Bild das ist, was an der Stelle gewünscht ist, kann ich mir nicht vorstellen, wie ich das programmieren würde.
Nimm als Beispiel Oranienburg. Da wird eine spezielle Ansicht gewünscht .. der englische Artikel enthält zwar Bilder aber sicherlich nicht eines, wie es gewünscht ist.
Also was möchtest du mindestens erfüllt haben, damit du zufrieden bist? --Croesch (Diskussion) 21:54, 15. Nov. 2014 (CET)Beantworten
So etwas gibt es schon. Schau mal auf Benutzer:Tsor/Tischtennis unter "Bilderwunsch". --tsor (Diskussion) 17:36, 16. Nov. 2014 (CET)Beantworten


Aussendung für Stammtisch Oberösterreich

Bitte um eine Aussendung für den Adressatenkreis des Stammtisches in Oberösterreich.

Wann: bitte, wenn geht, noch am Di, 18.November 2014

Adressaten: siehe Wikipedia:Oberösterreich/Einladungsliste

Betreff der Nachricht: Einladung zum Stammtisch Oberösterreich

Nachrichtentext: bitte die Vorlage {{subst:Wikipedia:Oberösterreich/Einladungstext}} verwenden.
(Es wird automatisch hinter der Unterschrift einmalig die aktuelle Uhrzeit samt aktuellen Datum ergänzt)

Für Rückfragen stehe ich Agruwie bzw. Dromedar61 oder direkt per Mail zur Verfügung. (sind heute Online).
vielen Dank und liebe Grüße --Dromedar61 und Agruwie  Disk   und 19:49, 18. Nov. 2014 (CET)

diese Aussendungs-Anfrage bitte nicht übersehen ! lG --Agruwie  Disk   11:23, 19. Nov. 2014 (CET)Beantworten
ausgesendet --MBq Disk 13:21, 19. Nov. 2014 (CET)Beantworten
danke ! lG --Agruwie  Disk   14:36, 19. Nov. 2014 (CET)Beantworten

Der Setzer dieses Bausteins ist der Ansicht, diese Bot-Anfrage sei abgeschlossen und könne archiviert werden. MBq Disk 13:21, 19. Nov. 2014 (CET) Erledigte Anfrage

Globalreplace für vielfach verlinkte URL

Hallo, alle Listen in Kategorie:Baudenkmal in Neuseeland ca. 200 Stück enthalten am Ende einen veralteten Weblink, es wird zwar vom Betreiber auf die neue URL weitergeleitet, dort aber 404, da die Seitenstruktur ebenfalls wurde. Geändert werden soll global: http://www.historic.org.nz/en/TheRegister.aspx in http://www.heritage.org.nz/the-list. Vielen Dank wenn ich das nicht zu Fuß machen müsste... - andy_king50 (Diskussion) 22:26, 18. Nov. 2014 (CET)Beantworten

Ich habe das da reingestellt: Wikipedia:WikiProjekt_Weblinkwartung/Botliste Frohes Schaffen — Boshomi ☕⌨☺00:05, 19. Nov. 2014 (CET)Beantworten
Hm. Für diesen einfachen Fall bräuchte es nicht unbedingt so eine Liste...--Cactus26 (Diskussion) 08:41, 19. Nov. 2014 (CET)Beantworten

Der Setzer dieses Bausteins ist der Ansicht, diese Bot-Anfrage sei abgeschlossen und könne archiviert werden. --Cactus26 (Diskussion) 09:24, 19. Nov. 2014 (CET) Erledigte Anfrage