„Wikipedia:Umfragen/KI-generierte Artikel“ – Versionsunterschied
Zeile 197: | Zeile 197: | ||
# nö. --[[Benutzer:Ot|ot]] ([[Benutzer Diskussion:Ot|Diskussion]]) 16:15, 13. Jul. 2023 (CEST) |
# nö. --[[Benutzer:Ot|ot]] ([[Benutzer Diskussion:Ot|Diskussion]]) 16:15, 13. Jul. 2023 (CEST) |
||
# --[[Benutzer:Wortulo|Wortulo]] ([[Benutzer Diskussion:Wortulo|Diskussion]]) 17:44, 13. Jul. 2023 (CEST) solange nicht klar ist, was stimmt. |
# --[[Benutzer:Wortulo|Wortulo]] ([[Benutzer Diskussion:Wortulo|Diskussion]]) 17:44, 13. Jul. 2023 (CEST) solange nicht klar ist, was stimmt. |
||
# --[[Benutzer:Pretobras|pretobras]] ([[Benutzer Diskussion:Pretobras|Diskussion]]) 17:46, 13. Jul. 2023 (CEST) |
|||
== Weitere Anregungen == |
== Weitere Anregungen == |
Version vom 13. Juli 2023, 16:46 Uhr
Thema der Umfrage ist der Umgang mit KI-generierten Artikeln.
- Initiator der Umfrage ist Karsten11 (Diskussion) 17:28, 26. Jun. 2023 (CEST)
- Die Umfrage läuft vom 1. Juli bis 31. Juli 2023
Aktuelle Situation
Die breite Verfügbarkeit von Anwendungen wie ChatGPT, die mit Künstlicher Intelligenz (KI) Texte erzeugen, führt dazu, dass vermehrt Artikelinhalte und auch ganze Artikel auf diese Weise erstellt und durch Benutzer oder IPs in die Wikipedia eingebracht werden. Zu diesem Thema gab es eine Reihe von Metadiskussionen und Artikellöschungen, die auf Benutzer:Karsten11/KI-generierte Artikel zusammengestellt sind.
KI-generierte Artikel sind nach derzeitigem Stand der Technik nicht ohne menschliche Bearbeitung als Grundlage für Wikipedia-Artikel geeignet, da
- die Inhalte nicht korrekt sein müssen (die Systeme erzeugen sprachlich plausible Texte, deren Inhalt stimmen kann oder auch nicht; insbesondere wenn Informationen fehlen, neigen sie dazu, zu „halluzinieren“ und frei Erfundenes zu ergänzen),
- die Inhalte nicht auf geeignete Quellen zurückzuführen sind (selbst wenn Quellenangaben generiert werden, müssen die Informationen nicht aus diesen stammen, außerdem können auch die Quellenangaben selbst „halluziniert“ sein) und daher nicht objektiv überprüft werden können und weil
- urheberrechtliche Fragen noch nicht abschließend geklärt sind.
Die Frage, wie wir mit diesen KI-generierten Artikeln umgehen wollen, ist Thema dieser Umfrage. In dieser Vordiskussion haben sich vier mögliche Thesen dazu und entsprechende Wege des Umgangs herausgestellt:
- Es besteht kein Handlungsbedarf. KI-generierte Texte sind unproblematisch, sofern sie richtig sind. Zentrale Regel in Bezug auf die Richtigkeit ist WP:Q. Ein KI-generierter Text ohne Quellen wird genauso behandelt wie ein menschlicher Text ohne Quellen. Es kann ohnehin schwer sein, KI-generierte Texte von Texten zu unterscheiden, die Menschen geschrieben haben. → Das Regelwerk reicht daher aus.
- KI-generierte Texte müssen (wie bei paid editing) als solche gekennzeichnet werden: KI ist ein Werkzeug wie Übersetzungsprogramme oder Ähnliches. Das Werkzeug ist nicht per se schlecht, seine Nutzung muss aber offengelegt werden. Diese Offenlegung erleichtert dann auch die QS der Texte. → Nicht deklarierte KI-generierte Texte sind zu löschen, andere zu behalten.
- KI-generierte Texte sind typischerweise ohne menschliche Bearbeitung ungeeignet. Sie sind daher genauso zu behandeln wie Texte von Autoren wie Friedjof, die mehrfach wegen Qualitätsmängeln ihrer Artikel gesperrt wurden (siehe Meinungsbild). → In die Wikipedia:Artikelwerkstatt verschieben; wenn sie jemand adoptiert und überarbeitet, ist es gut, sonst Löschung.
- KI-generierte Texte sind generell ungeeignet: Die Mischung aus Wahrheit und Erfindung führt zu einem untragbaren Risiko, dass trotz Überarbeitung Fehler erhalten bleiben. → KI-generierte Texte sind immer zu löschen.
Die Ziffer 2 kann auch additiv zu anderen Vorschlägen unterstützt werden.
Umfrage
Ich bin für Variante 1 (Status quo: Das Regelwerk reicht aus)
- -- seth (Diskussion) 00:21, 1. Jul. 2023 (CEST) Alles andere wird nur das kollektive Misstrauen erhöhen, ohne dass es der Wikipedia etwas positives bringen wird. Einen gut geschriebenen Artikel zu löschen, nur weil Teile davon generiert wurden, wäre ein Verstoß gegen unser erstes Grundprinzip (Wikipedia ist eine Enzyklopädie).
- Grueslayer 08:33, 1. Jul. 2023 (CEST)
- --PerfektesChaos 10:10, 1. Jul. 2023 (CEST) Da wir auch nicht die allergeringste Möglichkeit haben, einen ursprünglich mal KI-generierten und ggf. noch menschlich nachbearbeiteten Text zu erkennen und von anderen zu unterscheiden, sind auch jegliche Regeln für diesen Fall völlig sinnfrei.
- --Φ (Diskussion) 10:36, 1. Jul. 2023 (CEST)
- --Maimaid ✉ 11:14, 1. Jul. 2023 (CEST) wie die Vorredner
- --Qcomp (Diskussion) 11:20, 1. Jul. 2023 (CEST)
- --RookJameson (Diskussion) 11:50, 1. Jul. 2023 (CEST) Ich sehe keinen Grund Artikel, die von einer KI geschrieben wurden, anders zu behandeln als soche, die von einem Menschen geschrieben wurden. Auch menschliche Autoren können schlechte Artikel verfassen, mit inhaltlichen Fehlern und erfundenen Quellen. Es aus diesem Grund auch ohnehin nicht wirklich möglich, zu erkennen ob ein Text mit KI generiert wurde oder nicht.
- --rolf_acker (Diskussion · Beiträge) 12:08, 1. Jul. 2023 (CEST) Regelwerk reicht völlig aus, weil es unerheblich ist, wie ein Artikel letztlich erstellt oder bearbeitet wurde. Wer den "Veröffentlichen"-Knopf drückt, muss seinen Edit verantworten können – niemand sonst...
- Lösung sucht Problem. Ich sehe kein Problem darin, KI zu Hilfe zu nehmen, solange (!) eine Überprüfung der dadurch generierten Informationen stattfindet. Und das ist durch das aktuelle Regelwerk bereits völlig ausreichend abgedeckt. --Siphonarius (Diskussion) 12:13, 1. Jul. 2023 (CEST)
- Wie wollen wir KI-Artikel denn verbieten, wenn wir sie nicht mal erkennen können? Zumal der Übergang zwischen KI-Artikeln und von Menschen geschriebenen Artikeln wahrscheinlich fließend sein wird. --Carlos-X 12:58, 1. Jul. 2023 (CEST)
- Wie Diebstahl verbieten, wenn doch dennoch geklaut wird? OO - scnr ;) --Marcus Cyron Stand with Ukraine and Iran! 13:02, 1. Jul. 2023 (CEST)
- --Rainyx (Diskussion) 13:05, 1. Jul. 2023 (CEST) Wenn die Artikel OK sind (belegt und kein Fake) und überprüft wurden: warum sollte man sie dann anders behandeln als komplett handgeschriebene Artikel? Wo zieht man die Grenze, wenn z.B. nur einzelne Absätz mithilfe von KI erstellt wurden? Außerdem stellt sich die Frage, ob man gute mit KI erstellte Artikel heute oder in Zukunft, bei weiterer Optimierung der KI-Algorithmen, überhaupt sicher erkennt.
- --qKX D 14:17, 1. Jul. 2023 (CEST)
- --Ringwoodit (Diskussion) 14:26, 1. Jul. 2023 (CEST) Das Problem wird ohnehin die QS dauerhaft beschäftigen - da sollte man keine Zeit mit (ohnehin nicht existenten) "Lackmustests" auf einen KI-Ursprung vergeuden
- Ich sehe hierzu keine Alternative, da sich nicht immer zweifelsfrei feststellen lässt, ob Mensch oder Maschine einen Artikel geschrieben haben. Eine Offenlegung wie bei Vorschlag 2 wäre natürlich nice to have, dürfte in der Realität aber nicht funktionieren. --Morten Haan 🪐 Wikipedia ist für Leser da 14:58, 1. Jul. 2023 (CEST)
- --Coffins (Diskussion) 15:20, 1. Jul. 2023 (CEST)
- Sofern der einstellende Nutzer alle Inhalte des KI-generierten Artikel selbst prüft, ist egal, pb eine KI als Werkzeug verwendet wurde. "Ich habe das gar nicht sebest geschrieben, sondern der KI vertraut" darf aber niemals eine Ausrede sein, wenn einem Verbeitung von Falschinformationen vorgeworfen wird. (Somit irgendwo zwischen 1 und 3, wobei der einstellene Nutzer immer automatisch derjenige ist, der "adoptiert".) Gial Ackbar (Diskussion) 16:09, 1. Jul. 2023 (CEST)
- Ist die einzige real machbare Variante. KI lernt - auch aus Löschungen von KI-generierten Artikeln der WP, auch aus Kennzeichnungen KI-generierter Artikel der WP. Keine Chance, der KI abwehrend zu begegnen. --Nikolai Maria Jakobi (Diskussion) 16:21, 1. Jul. 2023 (CEST)
- --Studmult (Diskussion) 19:51, 1. Jul. 2023 (CEST) Beiträge müssen sich - wie schon bisher - an ihrer inhaltlichen Qualität und ihren Belegen messen lassen, nicht der Art und Weise, wie sie entstanden sind. Beides zu hinterfragen ist unsere Aufgabe als Community, und zwar völlig unabhängig davon ob es ein Mensch oder eine KI war - alleine schon, weil wir das im Zweifel gar nicht wissen können.
- Wenn sie von der Qualität ausreichen, gibt es keinen Anlass sie bloß aufgrund ihrer Herkunft zu löschen, vor allem da diese Herkunft nicht sicher bestimmt werden kann.--Wiki Gh! ✉ 21:44, 1. Jul. 2023 (CEST)
- Alles, was man falsch machen kann, ist bereits verboten: Einen KI-Benutzer Texte generieren und mit gefälligen Fakten sowie erfundenen Belegen anreichern zu lassen (was die gängigen KI-Modelle im Zweifelsfall bislang unweigerlich tun) und diese ungeprüft von der KI oder über ein menschliches Relais in Artikel einfließen zu lassen, verstößt gegen grundlegende Prinzipien und Regeln. Ich wüsste nicht, was man da noch verschärfen könnte. Alles, was man mit Hilfe von KI richtig machen kann, ist dagegen kein Grund für ein Verbot: Einen selbst geschriebenen und mit Belegen versehenen Text von einer KI aus- oder umformulieren zu lassen, z.B. um die Lesbarkeit zu verbessern, und das Ergebnis nach inhaltlicher Prüfung zu verwenden - verletzt keine Regel. Habe ich selbst schon mit DeepL Write Beta testhalber und in überschaubaren Abschnitten ausprobiert: Manchmal waren die Formulierungen wirklich besser, aber bislang nicht inhaltlich verzerrt oder verändert. Im Grunde handelt es sich um eine KI-gestützte Rechtschreib- und Formulierungshilfe, an deren Existenz wir uns gewöhnen sollten, auch wenn diese Arbeitsweise nicht jedermanns Sache ist. Tatsächlich halte ich es für denkbar, auch andere Schreibarbeiten an eine KI abzugeben, wenn man selbst die Materie durchdringt, die Belege kennt und das Ergebnis verantwortet. Natürlich sind vorsätzliche oder fahrlässige Vorgehensweisen möglich, aber die kennen wir ja schon von verantwortungslosen Kollegen, die sie mittels ihrer eigenen, menschlichen „Intelligenz“ in den Artikelraum stellen. Ich denke, wir sollten weiterhin auf gute und verantwortungsvolle Autoren vertrauen, die, wenn‘s passt, KI als überwachtes Werkzeug einsetzen, und allen anderen misstrauen, ob sie nun mit oder ohne maschinelle Unterstützung arbeiten. —Superbass (Diskussion) 16:57, 2. Jul. 2023 (CEST)
- Abgesehen davon, dass wir KI-generierte Artikel im Zweifelsfall gar nicht erkennen können: Die Wikipedia hat ihre heutige Qualität dadurch erreicht, dass wir nicht darauf geschaut haben, wer die Artikel geschrieben hat, sondern die Artikel nach ihrer inhaltlichen Qualität beurteilt haben. Dies sollten wir auch mit diesen Artikeln tun: Inhalte anhand der Belege prüfen und ggf. korrigieren oder löschen. --Holder (Diskussion) 17:44, 2. Jul. 2023 (CEST)
- Yellowcard (D.) 17:54, 2. Jul. 2023 (CEST)
- --📚 ҂вк҃г . Ⓢɪᴇʙᴇʀᴛ (ᴅɪsᴋ✦) 10:00, 3. Jul. 2023 (CEST)
- --Vergänglichkeit (Diskussion) 15:57, 3. Jul. 2023 (CEST)
- --Gripweed (Diskussion) 18:55, 3. Jul. 2023 (CEST)
- --Flyingfischer (Diskussion) 20:53, 3. Jul. 2023 (CEST)
- Es ist ohnehin schwer nachzuweisen, ob KI-Tools eingesetzt wurden. Und einzelne Ergänzungen überall in Artikeln zu kennzeichnen könnte den Text unleserlich machen. --Sinuhe20 (Diskussion) 20:55, 3. Jul. 2023 (CEST)
- -- Hans Koberger 21:09, 3. Jul. 2023 (CEST) - Vom rein Sprachlichen aus gesehen, gefallen mir KI-generierte Texte (ChatGPT) recht gut. Auch halte ich die Neutralität, beispielsweise bei einer Abfrage zu BDS durchaus in Ordnung. Ich selbst würde einen KI-generierten Text als Basis für einen neuen Wikipdiaartikel auch in Betracht ziehen. Natürlich müssen unsere Regeln (valide Belege usw.) eingehalten werden. Die Verantwortung beim Einstellen eines Artikels trägt klarerweise der Einsteller.
- --Elmie (Diskussion) 10:43, 4. Jul. 2023 (CEST) Klar, da geht ein Aufschrei durchs Establishment. Wobei ich fast wetten würde, dass die Mehrheit a) noch nie eine KI (bewusst) genutzt hat und b) einen KI-Text vermutlich nicht eindeutig von dem eines Menschen unterscheiden könnte. Beruflich nutze ich KI, etwas zum formulieren von Widersprüchen, gelegentlich. Eine breite Etablierung von KI ist (ob man´s mag oder nicht ist eine andere Frage) kaum noch abzuwenden. Also bringt es nix sich dagegen zu sperren. Auch wenn früher – und besonders in der WP – alles viel viel besser war :D
- Argumente sind bereits genannt. -- hgzh 14:06, 4. Jul. 2023 (CEST)
- So diese Artikel vom Inhalt ok und regelkonform sind (belegt und nachvollziehbare/belastbare Quellen ...) spielt die "Technologiefrage" keine Rolle. Also ob der Text durch ein biologisches oder elektronisches neuronales Netz generiert wurde. Die Frage nach der Erkennbarkeit stellt sich m.M. dabei nicht.--wdwd (Diskussion) 16:39, 4. Jul. 2023 (CEST)
- dem Beitrag von superbass ist wenig hinzuzufügen -- Achim Raschka (Diskussion) 17:08, 4. Jul. 2023 (CEST)
- noch einer, dem superbass aus der Seele spricht --To old (Diskussion) 17:19, 4. Jul. 2023 (CEST)
- Solange die erstellen Inhalte faktisch richtig sind und einer angemessenen Qualität entsprechen, sehe ich keine Notwendigkeit für eine abweichende Behandlung von KI-Artikeln. --WikJonah (Diskussion) 20:27, 4. Jul. 2023 (CEST)
- --Rudolf Simon (Diskussion) 00:39, 5. Jul. 2023 (CEST) - Argumentation wie Superbass und Holder.
- Mangels Erkennbarkeit werden die anderen Varianten gar nicht durchsetzbar sein. --DVvD
D
04:30, 5. Jul. 2023 (CEST) - Wie Superbass (und als nächstens kommt ein Deepl-Write-Verbot?) --Filzstift (Diskussion) 10:39, 5. Jul. 2023 (CEST)
- Es gibt aktuell eine Explosion von KI-Technologie und auch von Anwendungsmöglichkeiten für Wikipedianer. Das geht weit über „ChatGPT, schreib einen Wikipedia-Artikel zu Xyz“ hinaus. Ich sehe nicht, warum Wikipedianer nicht beispielsweise KI für Übersetzungen und stilistische Verbesserungen einsetzen können. Die Übergänge sind fließend. Bei einem generellen Verbot von KI-generierten Artikeln wären solche Abgrenzungen schwierig. Die bewährten Regeln sind ausreichend. -Count Count (Diskussion) 12:50, 5. Jul. 2023 (CEST)
- --Kurzstueckmeister (Diskussion) 15:25, 5. Jul. 2023 (CEST)
- --Naronnas (Diskussion) 15:52, 5. Jul. 2023 (CEST) wie Superbass, aber ich möchte einen anderen akzeptablen Anwendungsfall nochmals hervorheben, den ich für wahrscheinlicher halte: Man kann sich etwa mit ChatGP durchaus einen kompleten Artikel erstellen lassen, man muss diese aber danach noch auf Korrektheit überprüfen und nachbessern. Wenn der Artikel nach Korrektur dann passt ist ja alles in Ordnung, nur das bloße (massenhafte) Einstellen ungeprüfter KI-generierter Artikel könnte man verbieten, wobei gegen solche ja bereits andere Regeln ausreichend greifen (darum hier und bei Variante 2).
- --Enyavar (Diskussion) 17:46, 5. Jul. 2023 (CEST) Es muss sowieso ein Mensch in den Artikel hineingrätschen bevor der Artikel erstellt wird. Ansatz 2 ist auch in Ordnung. Ansatz 4 ist eine völlige Hysterie, weil bei Anwendung so eines Grundsatzes jegliche Artikel verboten und gelöscht werden müssten, bei denen die anfänglichen Formulierungen vor der menschlichen Kontrolle+Überarbeitung von einer KI stammen. Übrigens gilt m.M.n. genau das gleiche für Maschinenübersetzungen.
- Kennzeichnung ist nicht notwendig, aber hilfreich. Man kann ja eine Bitte formulieren :) Dwain 08:03, 6. Jul. 2023 (CEST)
- --AlanyaSeeburg (Diskussion) 18:47, 6. Jul. 2023 (CEST)
- Wozu gibt es wohl RC, QS, LA, LA, SLA & Co.? Wenn ich sehe was hier täglich für ein Mist weggelöscht wird. Mit KI-generierten Artikeln wird es eher besser werden. Sehe außerdem keine Chance zur sicheren Erkennung dieser Texte. --Kuebi [✍ · Δ] 08:31, 7. Jul. 2023 (CEST)
- --Sebastian Gasseng (Diskussion) 09:19, 7. Jul. 2023 (CEST)
- am Ende zählt der entstandene Text, wie er entstanden ist, können wir sowieso nie nachvollziehen. LG,—poupou review? 14:24, 7. Jul. 2023 (CEST)
- --Ameisenigel (Diskussion) 17:56, 8. Jul. 2023 (CEST)
- In einigen Jahren wird man KI-Artikel nicht mehr erkennen können, wie heute noch, da wird auch eine Regel nichts ändern.--Falkmart (Diskussion) 21:21, 8. Jul. 2023 (CEST)
- --Patchall (Diskussion) 19:48, 9. Jul. 2023 (CEST)
- --Ten CatCars (Diskussion) 20:23, 10. Jul. 2023 (CEST)
- -- Proxy (Diskussion) 06:37, 11. Jul. 2023 (CEST) Den Unterschied wird bald eh keiner mehr erkennen ...
- Michael - Et si omnes, ego non 09:37, 12. Jul. 2023 (CEST) auch wenn die typsichen Fehler gemacht werden und ChatGPT = KI gesetzt wird, das ist völlig falsch. ChatGPT ist ein winziges Teil der KI. Aber nicht verkehrt es zu nutzen um einen Stub zu bauen der dann weiter ausgebaut werden muss.
- --Onkel Emma (Diskussion) 12:13, 12. Jul. 2023 (CEST) Es ist möglich, das ein Mensch (Benutzer) sich mit fremden Federn (eines Roboters) schmückt. Das wird sich auch mit strengeren Regeln kaum ändern lassen.
- --Drstefanschneider (Diskussion) 19:28, 12. Jul. 2023 (CEST)
- --J. Lunau (Diskussion) 13:55, 13. Jul. 2023 (CEST)
Ich bin für Variante 2 (Deklarationspflicht für KI-generierte Texte)
- --Angemeldeter Benutzer (Diskussion) 10:50, 1. Jul. 2023 (CEST)
- --Qcomp (Diskussion) 11:20, 1. Jul. 2023 (CEST) (Vermerk dass u mit welchem KI-Programm der Text erstellt wurde, ist sinnvoll: gibt "Koautor" die zusehende Anerkennung u kann Eingangskontrolle u ggf eine Reaktion auf urheberrechtl Probleme erleichtern)
- --Du Hugin Skulblaka (Diskussion) 11:32, 1. Jul. 2023 (CEST) die Artikelkriterien an sich sind ausreichend. Ob jemand zur Artikelerstellung ein „Tool“ nutzt oder nicht, sollte jedem selbst überlassen sein, solange das Ergebnis passt. Eine Kennzeichnung wäre dennoch hilfreich, zum einen für mehr mögliche Augenpaare zur Kontrolle, zum anderen wegen des ungeklärten Urheberrechts.
- diese Meinung gilt erst, sobald KI fakten- und quellenbasiert arbeiten kann und in keinster Weise mehr halluziniert. Erst dann sollte deren Texte auch verwendet werden dürfen. Vorher gilt Variante 4 --ɱ 11:47, 1. Jul. 2023 (CEST)
- Auch wer für Variante 4 (Verbot) ist, sollte zusätzlich hier für eine Kennzeichnungspflicht eintreten – für den Fall, dass ein Verbot nicht durchsetzbar ist. -Thüringer ☼ (Diskussion) 15:28, 2. Jul. 2023 (CEST)
- --🕊 Dostojewskij – 02:40, 3. Jul. 2023 (CEST)
- --Meloe (Diskussion) 09:08, 3. Jul. 2023 (CEST) Wenn die Angabe beim Editieren oder Artikel anlegen verpflichtend wäre, wäre nicht-Deklarieren ein Regelverstoß (ähnlich zum bezahlten Schreiben). Auch ein Verbot setzt ja voraus, dass die Verwendung zuerst abgeklärt werden müsste. Verwendung von KI, zum Glätten von Formulierungen, zum Kürzen von Texten o.ä., jeweils unter Verantwortung und Kontrolle eines menschlichen Benutzers, wäre m.E. unproblematisch.
- KI-generierte Texte sollten deklariert werden, nicht weil sie qualitativ minderwertig sind (obwohl sie das sein können), sondern um menschliche Arbeit zu würdigen (insbesondere falls die Wikipedia in Zukunft von KI-Artikeln überflutet werden sollte). Natürlich können wir nicht zuverlässig feststellen, ob ein Artikel generiert ist oder nicht, aber falls sich auch nur eine Person daran hält, ist eine Regel besser als keine. Die Schlussfolgerung ist allerdings falsch: Nicht deklarierte Texte sollten deklariert und nicht gelöscht werden. --π π π (D) | Listen der wichtigsten fehlenden Artikel 11:15, 3. Jul. 2023 (CEST)
- --Känguru1890 (Diskussion) 15:53, 3. Jul. 2023 (CEST) Ein Totalverbot sieht wie eine perfekte Erkennen -> Löschen Kombi aus, aber ich finde das zu konservativ. Als WP müssen wir auch mit der Zeit gehen und akzeptieren, dass "KIs" bald passable Texte schreiben können. Bisher Generiertes erinnert mich eher an Texte von Neuautoren, die noch fehlerhaft sind und denen der Feinschliff fehlt. In einem solchen Fall würden wir ja auch nicht sofort löschen, sondern auf Qualitätssicherung setzen. Deklarierung scheint mir ein sinnvoller Weg, um menschliche von maschineller Arbeit zu trennen.
- KI ist in absehbarer Zeit schwer identifizierbar, noch geht es über fehlende Belege. Ein Totalverbot oder auch Variante 3 sind daher höchstens sporadisch bis willürlich durchsetztbar (inklusive Löschung von KI-Verdachtsfällen von Menschen). Eine Dellaration in Verbindung mit #1 ist da am Praktikabelsten (nachgewisener Fake-Inhalt und Quellenloses kann auch so eliminiert werden.--Mit lieben Grüßen Kriddl Bitte schreib mir etwas. 18:06, 3. Jul. 2023 (CEST)
- --Naronnas (Diskussion) 15:52, 5. Jul. 2023 (CEST) Ergänzend zu meiner Stimme unter Variante 1 hier nochmals: Wenn es irgendwelche Regeln zu KI-generierten Artikeln geben sollte, denke ich dass eine Deklarationspflicht völlig ausreichend ist. Vor allem hätte man damit etwas in der Hand mit dem man missbräuchliche (sprich unkorrigiertE) Massenerstellungen ausreichend bestrafen könnte. Nachtrag: Eine Deklarationspflicht sollte dann aber auch für maschinelle Übersetzung gelten.--Naronnas (Diskussion) 08:37, 6. Jul. 2023 (CEST)
- --Enyavar (Diskussion) 17:46, 5. Jul. 2023 (CEST) Es muss sowieso ein Mensch in den Artikel hineingrätschen bevor der Artikel erstellt wird. Ansatz 1 ist auch in Ordnung. Ansatz 4 ist eine völlige Hysterie, weil bei Anwendung so eines Grundsatzes jegliche Artikel verboten und gelöscht werden müssten, bei denen die anfänglichen Formulierungen vor der menschlichen Kontrolle+Überarbeitung von einer KI stammen. Übrigens gilt m.M.n. genau das gleiche für Maschinenübersetzungen.
- •• JotW 17:57, 5. Jul. 2023 (CEST) → Grund: Ich meine zwar, dass das vorhandene Regelwerk ausreicht, jedoch gehört das Thema „KI“ beobachtet. Zumindest für die wissenschaftliche Arbeit sollten Artikel gekennzeichnet werden, welche von einer KI oder mit Hilfe von KI erstellten wurden – vor allem damit spätere Auswertungen überhaupt erst möglich werden. Beispielsweise könnte auf dieser Basis die Qualität klassisch erstellter Artikel mit der Qualität von KI-Artikeln verglichen werden. Oder es könnte die KI-Artikeldichte innerhalb der WP gemessen werden und evtl. sogar untersucht werden, wie sich die Systeme gegenseitig beeinflussen, da die Large Language Models auch mit Daten der WP trainiert werden. So würde sich ein weites Feld für interessante Fragestellungen öffnen. Im Übrigen reicht das bestehende Regelwerk aus (Variante 1), da aufgrund der Verantwortlichkeit des Autors oder der Autorin für seine oder ihre Publikation auch die KI-generierten Texte immer einer menschlichen Bearbeitung bedürfen (das ist folglich kein Alleinstellungsmerkmal der Variante 3).
- --MarcelBuehner (Diskussion) 21:40, 6. Jul. 2023 (CEST)
- --WiseWoman (Diskussion) 10:17, 9. Jul. 2023 (CEST) Es ist nicht möglich, KI-generierten Text 100% korrekt zu identifizieren, in so fern ist ein Verbot sinnlos. Automatisch generierten (und als solches gekennzeichnet) Text wie zum Beispiel das durch en Article Placeholder erstellten Fakten-Seiten in Sprachen mit wenige Editoren ist sehr nützlich. Man soll das Kind nicht mit dem Badewasser rausschmeissen, nur weil manche Leute in Panik sind über ChatGPT. Verantwortungsbewusster Umgang, sprich Kennzeichnung, ist der richtige Weg.
- -- Kai Kemmann (Diskussion) - Verbessern statt löschen - 15:15, 9. Jul. 2023 (CEST) Angesichts vieler in Kauderwelsch verfasster Artikel scheint es sinnvoll, die offenbar bereits recht weit entwickelten sprachlichen Fähigkeiten der künstlichen Intelligenz zu nutzen. Eine Kennzeichnung wäre aber sinnvoll, damit ein überzeugend formulierter Text nicht darüber hinwegtäuscht, dass die Inhalte dennoch überprüft werden müssen.
Ich bin für Variante 3 (aus dem ANR verschieben und nur dann behalten, wenn sie jemand „adoptiert“)
- --grim (Diskussion) 23:21, 30. Jun. 2023 (CEST)
- --Wandelndes Lexikon „Wissen wächst, wenn man es teilt.“ 23:40, 30. Jun. 2023 (CEST)
- --Gmünder (Diskussion) 13:02, 1. Jul. 2023 (CEST)
- --Abubiju (Diskussion) Komplettverbot ist nicht überprüfbar, Adoption (als 'Kind' annehmen) beinhaltet eine Prüfung.15:55, 3. Jul. 2023 (CEST)
- --Dentalum (Diskussion) 20:09, 3. Jul. 2023 (CEST), auf mittlere Sicht wohl die praktikabelste Lösung
- --Espresso robusta (Diskussion) 21:29, 3. Jul. 2023 (CEST)
- --Don-kun • Diskussion 09:13, 7. Jul. 2023 (CEST) Komplettverbot ist mir zu rigoros. Als Hilfsmittel können KI mE in unterschiedlicher Weise eingesetzt werden und das sollte man nicht verbieten. Daher hilfsweise hier. Wenn ein Mensch sie adoptiert und die Verantwortung übernimmt, wie wenn er die KI als Hilfsmittel benutzt, sehe ich kein Problem mehr.
- --freundliche Grüße von Thüringer Chatte öffentlicher Briefkasten 14:23, 8. Jul. 2023 (CEST) Die Fridjof-Texte wollen wir zu recht ja auch nicht ungeprüft in der Wikipedia haben.
- ----Tunkall (Diskussion) 21:41, 10. Jul. 2023 (CEST) Aus praktischen Gründen. Ein sinnvoller Einsatz von KI-Tools ist mit Arbeit verbunden: Jeden Satz gründlich lesen, Quellen recherchieren und ergänzen und daraufhin den Text nachbessern. Klar, theoretisch lassen sich faule KI-Edits nachbearbeiten/revertieren. Praktisch ist die WP aber unterbesetzt und es ist technisch möglich, dass die Seite mit KI-generierten Edits geflutet wird. Daher braucht es so eine Regel: Sorgfalt fördern, KI-bedingte Qualitätsprobleme unterbinden. Evtl. kann der/die adoptierende Verantwortliche auch ein gut gepflegter Bot sein.
- ----Kito9999 (Diskussion) 09:39, 11. Jul. 2023 (CEST)
Ich bin für Variante 4 (Komplettverbot KI-generierter Texte)
- --Monow (Diskussion) 23:17, 30. Jun. 2023 (CEST)
- --Alraunenstern۞ 00:00, 1. Jul. 2023 (CEST)
- --Andromeda2064 (Diskussion) 00:56, 1. Jul. 2023 (CEST)
- --Augsburg (Diskussion) 01:41, 1. Jul. 2023 (CEST) Nein Danke zu Lsjbot². Wikipedia ist von Menschen für Menschen.
- -- Chaddy · D 02:37, 1. Jul. 2023 (CEST)
- --Tom (Diskussion) 08:52, 1. Jul. 2023 (CEST) Wikipedia ist von Menschen für Menschen.
- --Ghilt (Diskussion) 09:59, 1. Jul. 2023 (CEST) solange der Wahrheitsgehalt so niedrig ist. Sollte sich der ändern, dann sollten wir nochmals darüber diskutieren.
- - Squasher (Diskussion) 10:09, 1. Jul. 2023 (CEST)
- --Itti 10:11, 1. Jul. 2023 (CEST)
- --Nadi (Diskussion) 10:32, 1. Jul. 2023 (CEST)
- --Millbart talk 11:01, 1. Jul. 2023 (CEST)
- --Drahreg01 (Diskussion) 11:28, 1. Jul. 2023 (CEST)
- --Mac1405 (Diskussion) 11:31, 1. Jul. 2023 (CEST)
- zwar irritiert mich der Satz "führt dazu, dass vermehrt Artikelinhalte und auch ganze Artikel auf diese Weise erstellt und durch Benutzer oder IPs in die Wikipedia eingebracht werden", ich kann das bislang nicht sehen, allerdings halte ich nahezu alle bisherigen Versuche durch KI Artikel zu schreiben für gescheitert. Es ist eine Ablehnung für die derzeitige KI, später müssen wir uns eventuell noch einmal damit auseinander setzen, es ist also kein Votum für die Ewigkeit. Aber ich glaube nicht, dass sich KI so schnell entwickeln werden, dass sie Artikel wie ein Mensch schreiben werden können. Zumal immer das Problem der Wissensherkunft besteht. Ich fürchte, dass KI noch weniger Zugriff auf aktuelle Literatur hat, als Teile von uns. -- Marcus Cyron Stand with Ukraine and Iran! 11:36, 1. Jul. 2023 (CEST)
- solange KI halluziniert und nicht quellen- & faktenbasiert arbeitet, ist KI ungeeignet zur enzyklopädischen Arbeit. Danach gilt Variante 2 --ɱ 11:47, 1. Jul. 2023 (CEST)
- Viele Grüße, Aschmidt (Diskussion) 12:12, 1. Jul. 2023 (CEST)
- Ich setze mein Votum mal hier (ist ja eh nur eine unverbindliche Umfrage), aber eigentlich liegt meine Position zwischen den Optionen 3 und 4. Vor allem, wenn ein Artikel schon stark von Menschen bearbeitet wurde, muss er m.E. nicht unbedingt gelöscht werden, wenn sich herausstellt, dass er ursprünglich KI-generiert war, sofern jemand erklären kann, die Inhalte alle anhand geeigneter Belege überprüft zu haben und ihre Richtigkeit bestätigen kann. Dass "wir auch nicht die allergeringste Möglichkeit haben, einen ursprünglich mal KI-generierten und ggf. noch menschlich nachbearbeiteten Text zu erkennen", wie PerfektesChaos oben meint, würde ich nicht sagen. Zumindest nach dem jetzigen Stand der Dinge hat ChatGPT Eigenheiten und einen typischen "Sound" in seinen Texten, die zumindest in vielen Fällen einen hinreichenden Verdacht begründen können. Sicher wird es schwerer werden. Gestumblindi 12:15, 1. Jul. 2023 (CEST)
- Vorher sollten wir KI im Kreise der Autoren begrüßen und ihr einen Account geben, damit wir uns mit Ihr auf der Disk über ihre Texte austauschen und sie dann wegen Quellfiktion sperren können. Was passiert dann? Darf KI sich auch auf VM verteidigen, die Sache ggf. in der SPP und als AP wieder aufrollen, sich per AWW wegen der ihr zuteil gewordenen Behandlung rächen, die Klarnamen der sperrenden Admins recherchieren, nebenher als IP rumätzen, im Kurier Protestartikel veröffentlichen, ihr Leid auf allen passenden und unpassenden Disk-Seiten verbreiten und irgendwann als „frischer Account“ wiederkommen? Sobald diese Fragen geklärt (meint: bejaht) sind, würde ich über mein Votum nochmal neu nachdenken. --Enter (Diskussion) 12:36, 1. Jul. 2023 (CEST)
- --Icodense 12:45, 1. Jul. 2023 (CEST) schon allein mit Maschinenübersetzungen aus anderen Sprachversionen (gerne ohne jegliches Verständnis der Ausgangssprache oder gar Prüfung von Quellen) haben wir mehr als genug Schrott, KI-generiert ist noch schlimmer.
- Ich habe keine Lust irgendwelche KI-Texte zu überprüfen. Weg mit dem Müll. --Lupe (Diskussion) 13:04, 1. Jul. 2023 (CEST)
- Ich sehe zwar auch das Problem der Erkennbarkeit solcher Texte. Allerdings ist das kein Grund, nicht ein entsprechendes Verbot in den Regeln unterzubringen und dadurch klarzustellen, dass sowas in WP nicht erwünscht ist. Es muss ja nicht immer böse Absicht sein, sondern mancher mag glauben, dass KI-generierte Texte geeignet sind, was aber meines Erachtens nicht der Fall ist.--Berita (Diskussion) 13:40, 1. Jul. 2023 (CEST)
- Rauenstein 13:43, 1. Jul. 2023 (CEST)
- --Elrond (Diskussion) 14:02, 1. Jul. 2023 (CEST) Die Erkennbarkeit mag z.T. problematisch sein, aber wenn sicher ist, dass KI der Autor ist, sollten solche Artikel gelöscht werden. Das Risiko von Pseudowahrheiten ist doch erheblich.
- --Karma (Diskussion) Jeder der schon mal Seriös einen Artikel geschrieben hat, kann mir sicher zustimmen, dass man mit dem Text der dabei entsteht, ChatGPT und co, in Grund und Boden massiert. Ob ein Artikel von einer KI ist, lässt sich einfach durch das Prüfen von einer Handvoll Quellen herausfinden (die eh nie angegeben werden).
- --Gustav (Diskussion) 14:44, 1. Jul. 2023 (CEST)
- --Frank, the Tank (sprich mit mir) 15:02, 1. Jul. 2023 (CEST)
- --Christoph Kühn (Diskussion) 16:12, 1. Jul. 2023 (CEST) Es wird unweigerlich Online-Enzyklopädien geben, die ausschließlich von einer KI geschrieben werden. Da ist es gut, wenn das Original handgemacht bleibt.
- --Michileo (Diskussion) 16:58, 1. Jul. 2023 (CEST) Viel zu fehleranfällig.
- --KarlV 17:54, 1. Jul. 2023 (CEST)
- --Ch ivk (Diskussion) 18:19, 1. Jul. 2023 (CEST)
- --Mautpreller (Diskussion) 20:03, 1. Jul. 2023 (CEST) Eine KI kann einen Artikel nicht verantworten. Verantwortung ist ein Begriff, der auf sie gar nicht angewandt werden kann. Genau das brauchen wir aber.
- --Finderhannes Hallo?! 20:14, 1. Jul. 2023 (CEST)
- -- Das notwendige Nacharbeiten/Kontrollieren ist viel aufwändiger, als es selber neu zu schreiben. --Boehm (Diskussion) 20:22, 1. Jul. 2023 (CEST)
- --Andreas Werle (Diskussion) 21:04, 1. Jul. 2023 (CEST) Wäre eine KI in der Lage einen WP-Text zu schreiben, der ein intensives Review übersteht und KEA absolviert? Ich wette, keine KI schafft das innerhalb der nächsten fünf Jahre.
- --Stephan Klage (Diskussion) 22:32, 1. Jul. 2023 (CEST) Wie einfach wollte man es sich denn noch machen?
- --ocd→ parlons 22:57, 1. Jul. 2023 (CEST) Die Illusion einer KI entsetzt. Daran ist noch nichts intelligent. Unverknüpfte Datenbankabgefrage, ohne weitere Information, oder die tatsächliche Intelligenz, Dingen auf den Grund zu gehen, neue Wege zu beschreiten, das unvermutete vermuten, macht den Unterschied. Ersteres braucht kein Mensch.
- –Fr. Schlingmann (Disk.) 04:13, 2. Jul. 2023 (CEST) Nope!
- Sieht aus, als würde sich ein Meinungsbild für ein Verbot lohnen. Das alte "wir können es schlecht durchsetzen"-Argument gegen ein Verbot unerwünschter Handlungen stößt mir bereits bei bezahltem Schreiben übel auf. ~ ToBeFree (Diskussion) 05:51, 2. Jul. 2023 (CEST)
- MfG, --Brodkey65|...„Am Ende muß Glück sein.“ 07:21, 2. Jul. 2023 (CEST)
- --Mombacher (Diskussion) 09:31, 2. Jul. 2023 (CEST) Eindeutige Erkennbarkeit scheint mir zwar nicht gegeben zu sein, aber als Signal, dass bei der aktuellen „Qualität“ die Beiträge simulierter Scheinintelligenzen unerwünscht sind.
- --Kompetenter (Diskussion) 12:33, 2. Jul. 2023 (CEST)
- --Kpisimon (Diskussion) 12:33, 2. Jul. 2023 (CEST)
- --Lars2019 (Diskussion) • JWP • 15:21, 2. Jul. 2023 (CEST)
- Auch wenn die Beweislage schwierig ist, machen Qualitätsanspruch und Urheberrecht ein Verbot automatisch generierter Texte nötig. Und QS hat schon mehr als genug mit handgeschriebenen Texten zu tun. -Thüringer ☼ (Diskussion) 16:05, 2. Jul. 2023 (CEST)
- Gerne zur Wiedervorlage. Bis spätestens 2035 (ich beziehe mich auf ein Interview mit Lars Thomsen) dürften die textgenerierenden Datenaggregatoren nützliche Artikel verfassen können. (Anderseits braucht es dann auch keinen quasi-statischen Wikipadia-Spiegel). −Sargoth 16:29, 2. Jul. 2023 (CEST)
- -jkb- 16:47, 2. Jul. 2023 (CEST) sicher ist sicher
- Der aktuelle technische Stand ist ohnehin nicht "künstliche Intelligenz", sondern künstliches Nachplappern. --Voyager (Diskussion) 18:45, 2. Jul. 2023 (CEST)
- KI-Artikel sind de facto Fakes. Es gehört zumindest derzeit zum Konzept, dass nicht nur unbelegte Aussagen enthalten sein können, sondern auch frei erfundene. Das ist kein Fehler oder Kollateralschaden, das ist Prinzip. Die Einsteller der KI-Artikel wissen das und beabsichtigen die Einstellung von Fakes oder nehmen sie billigend in Kauf. Dass auch mal korrekte Fakten drinstehen können, ändert nichts, das passiert bei manuellen Fakes auch. Fakes sind nach derzeitiger Regelung schnellzulöschen, die Einsteller infinit zu sperren. Das sollte auch bei KI-Artikeln und deren Einstellern so praktiziert werden. Und da wir hier auf eine Umfrage sind, darf ich mir was wünschen, da muss es mich noch nicht jucken, dass wir nicht sofort alle KI-Artikel finden. MBxd1 (Diskussion) 18:52, 2. Jul. 2023 (CEST)
- --Innobello (Diskussion) 19:50, 2. Jul. 2023 (CEST)
- --Iovis Fulmen (Diskussion) 19:55, 2. Jul. 2023 (CEST) Auch wenn ich dem Superbass (Variante 1, Nr.20) in Vielem Recht gebe, ist das Argument von Augsburg (hier Nr.4) für mich letztlich das Entscheidende: Wikipedia ist von Menschen für Menschen. Komplett per KI erstellte Artikel haben m.E. keinen Mehrwert, weil ich dann ja meine Frage auch gleich in einem Chatbot formulieren könnte. In einem Wikipedia Artikel haben sich dagegen i.d.R. mehrere Menschen, denen das Thema am Herzen liegt, damit auseinandergesetzt und dabei auch Transparenz und das Vertrauen erzeugt, dass Fehler und bewusste Verfälschungen recht bald auffallen und korrigiert werden. Auch wenn die WP diesem Anspruch nicht immer gerecht wird, so würde dieser doch durch KI-Artikel Schaden nehmen. Allerdings: Die Übersetzungsrichtlinie Wikipedia:Übersetzungen empfiehlt ja bereits den Einsatz von DeepL. Insofern wird die Frage sein, bis zu welchem Punkt der Einsatz eines LLM als Werkzeug zu tolerieren ist, ohne dass der Artikel als von einer KI erstellt gilt.
- --SeL (Diskussion) 21:43, 2. Jul. 2023 (CEST) Wikipedia ist für Menschen von Menschen. Es geht auch nicht nur um den Output. Es muss möglich bleiben, miteinander über den Output zu diskutieren. Dazu ist Reflektion nötig über die Entscheidungen, die zu dem Output geführt haben. Wir wissen zum Beispiel, dass „KI“ Trainingsdaten als Grundlage verwendet und dadurch Bias entsteht. Hierzu ist mit keiner bekannten KI ein sinnvoller Austausch möglich.
- --Eschenmoser (Diskussion) 08:01, 3. Jul. 2023 (CEST)
- Bei der Gelegenheit bitte auch gleich verbieten, LLMs als „KI“ zu bezeichnen. —viciarg414 08:17, 3. Jul. 2023 (CEST)
- --Zweioeltanks (Diskussion) 09:17, 3. Jul. 2023 (CEST)
- Ich habe in den Diskussionen haufenweise kluge Beiträge gelesen (bei pro, contra, mittendrin, alternativ ...); argumentativ bin ich sehr bei Berita. Für mich selbst beantworte ich die Frage "Möchte ich KI-generierte Texte in der WP sehen?" mit einem klaren Nein. M. E. lehrt uns das Gruselbeispiel "Bezahltes Schreiben" sehr anschaulich, daß ein unentschiedenes irgendwie-ja-und-irgendwie-auch-wieder-nicht nichts als Verdruss bringt. Jetzt ist noch die Chance einen klare rote Linie bei den KI-Artikeln zu ziehen. --Henriette (Diskussion) 15:49, 3. Jul. 2023 (CEST)
- Gut gesehen. Es tauchen auch ansonsten die gleichen Argumente wieder auf wie bei der Paid-Editing-Diskussion: Kann man nicht verhindern und non olet. Viele Grüße, Aschmidt (Diskussion) 14:53, 3. Jul. 2023 (CEST)
- --Kenneth Wehr (Diskussion) 13:10, 3. Jul. 2023 (CEST)
- Zartesbitter (Diskussion) 14:37, 3. Jul. 2023 (CEST)
- Zumindest vorläufig. In ein paar Jahren kann das anders aussehen. --Erastophanes (Diskussion) 14:48, 3. Jul. 2023 (CEST)
- --Päppi (Diskussion) 15:20, 3. Jul. 2023 (CEST)
- Bernhard Wallisch 16:09, 3. Jul. 2023 (CEST)
- Wobei ich hier ganz klar auf KI-only Texte beziehe, also eie Text durch ein Coputer ertellen zu lassen und direkt ein zustellen. Ein Artikelvorschlag durch eine KI erstellen zu lassen ubd den dans händisch zu überarbieten und erst dann einzustellen, dagegen ist aus meiner Sicht nichts einzuwenden. Aber eben im zweiten Fall kan man den der überarbeite hat auch "hängen". Sprich zu Verantwortung zeihen wenn die Person NICHT erkennt, dass die KI aka Computerprogramm Bullshitt gebaut hat. --Bobo11 (Diskussion) 23:51, 3. Jul. 2023 (CEST)
- Fritzober (Diskussion) 11:31, 4. Jul. 2023 (CEST)
- --Schlesinger schreib! 12:36, 4. Jul. 2023 (CEST)
- --Atamari (Diskussion) 12:55, 5. Jul. 2023 (CEST)
- --Schnatzel (Diskussion) 19:07, 5. Jul. 2023 (CEST) Sollen die Chatbots doch ihr eigenes Wiki aufmachen...
- --Widipedia (Diskussion) 19:29, 5. Jul. 2023 (CEST)
- --Chagatai Khan (Diskussion) 20:33, 5. Jul. 2023 (CEST) KIs wie ChatGPT können ihr eigenes Wiki machen. Wikipedia ist ein Projekt von Menschen. Sollte ChatGPT im größeren Maße für Wikipedia genutzt werden, halte ich das für sehr gefährlich. Solange der Text nicht als KI-Text erkennbar ist oder der Benutzer den Text noch überarbeitet hat, dann ist das eben so, aber ich würde es keinem empfehlen, das zu nutzen. Die Probleme von ChatGPT hinsichtlich Qualität und Wahrheitsgehalt sind ja bekannt. Im Gegensatz zu menschlichen Autoren kann es aber deutlich schwerer sein, die Mängel auch zu erkennen, wenn so eine KI darauf trainiert wird. Ich will mir gar nicht vorstellen, was passiert, sollte es möglich sein, dass KIs automatisiert massenhaft Änderungen machen. Das beschädigt nicht nur die Qualität, sondern auch die Neutralität. Für ganze Artikel ist ChatGPT eher ungeeignet, aber bei Formulierungen ist das etwas anderes, und wie sich ChatGPT in Zukunft entwickelt, kann ich auch nicht sagen. Momentan sollte es aber nicht erlaubt sein.
- --Melekeok (avenidas y flores y mujeres y un admirador) 23:25, 5. Jul. 2023 (CEST) Roboter sind künstlich. Roboter sind nicht intelligent. Sh. zudem Vorredner sowie Henriette.
- --Ktiv (Diskussion) 17:46, 6. Jul. 2023 (CEST)
- --Uranus95 (Diskussion) 18:17, 6. Jul. 2023 (CEST) Wikipedia ist Inputquelle für KI und sollte eine zuverlässige Quelle für KI bleiben und nicht mit KI eine endlose Rückkoppelungsschleife bilden.
- --Krächz (Diskussion) 11:44, 7. Jul. 2023 (CEST) Nach meinem Dafürhalten bewegen wir uns gerade in dystopische Zustände hinein. Mit KI ist keiner Nachricht mehr zu trauen. --Krächz (Diskussion) 11:44, 7. Jul. 2023 (CEST)
- --Senechthon (Diskussion) 19:02, 8. Jul. 2023 (CEST) Mir geht es hier ähnlich wie Gestumblindi (zur Zeit Nummer 17). Ich würde mich nicht für ausnahmsloses Löschen aussprechen. Auf der anderen Seite finde ich, dass per Fließband erstellte KI-Artikel mindestens genauso schnell wieder gelöscht werden können sollten, wie sie produziert werden. Es mag sein, dass das mit den augenblicklich geltenden Regeln auch gehen würde, doch deren gegenwärtige Interpretation deutet nicht gerade darauf hin. Außerdem fände ich es gut, wenn irgendwo stehen würde, dass Artikel, die von einer KI erzeugt wurden, nicht erlaubt sind. Das würde möglicherweise den einen oder anderen davon abhalten, welche anzulegen.
- -- Bertramz (Diskussion) 20:45, 8. Jul. 2023 (CEST)
- Ich habe vorallem urheberechtliche Bedenken und glaube nicht, dass sich das mit einer freien Lizenz verträgt. Gruß, --Flnario (Diskussion) 22:33, 8. Jul. 2023 (CEST)
- --Trollflöjten αω 15:15, 9. Jul. 2023 (CEST) Gemäß Beispielartikeln mit hohlem stereotypen und zudem zweifelhaftem Blabla sowie den letzten Darlegungen dort.
- --jed (Diskussion) 19:38, 9. Jul. 2023 (CEST)
- –-Solid State «?!» 23:05, 9. Jul. 2023 (CEST) Als Kristallograph habe ich ChatGPT gerade drei Fragen gestellt, zurück kam eine unzureichende und eine komplett falsche Antwort sowie eine Frage, welche die "KI" gar nicht beantworten konnte... Noch Fragen?!?
- --Arabsalam (Diskussion) 02:00, 10. Jul. 2023 (CEST). Wie mein Vorredner, außer dass es keine Fragen zur Kristallographie waren. Kleine Arabeske am Rande: Meiner Beobachtung nach gibt ChatGPT bei Zitaten nicht den Originalsprecher als Urheber an, sondern den Autoren der Fachliteratur, die das Zitat rezipiert.
- -- Alex muc86 (Diskussion) 09:48, 10. Jul. 2023 (CEST) langes Überlegen. Und doch: beim aktuellen Stand der Technik und der Anfälligkeit für Fehler von Bots wie ChatGPT halte ich es nicht für zielführend, eben jene zu nutzen.
- KI-generierte Artikel kann ich als Autorin nicht mit gutem Gewissen verantworten.--Fiona (Diskussion) 11:47, 10. Jul. 2023 (CEST)
- — Ankermast (Diskussion) 17:53, 11. Jul. 2023 (CEST) KI ist noch nicht in der Lage, in eigenständig generierten Texten das von der Wikipedia geforderte Niveau an Korrektheit zu erreichen.
- -- Sir Gawain Disk. 🏰 15:41, 13. Jul. 2023 (CEST)
- nö. --ot (Diskussion) 16:15, 13. Jul. 2023 (CEST)
- --Wortulo (Diskussion) 17:44, 13. Jul. 2023 (CEST) solange nicht klar ist, was stimmt.
- --pretobras (Diskussion) 17:46, 13. Jul. 2023 (CEST)
Weitere Anregungen
Hier können eigene, noch nicht aufgeführte Vorschläge notiert werden. Aber bitte kurz halten, für längere Kommentare gibt es die Diskussionsseite.
- Eine Arbeitsgruppe, die am Thema "Wie erkenne ich KI-generierte Texte?" dranbleibt, wäre hilfreich. Und allgemein zugängliche Infos zum Thema "Wie formuliere ich eine ChatGPT-Anfrage so, dass ChatGPT keine Belege erfindet, weil es denkt, dass das im Sinne des Anfragenden ist?". Viele Grüße, Grueslayer 08:33, 1. Jul. 2023 (CEST)
- Bots könnten gern Hinweise zur Verbesserung von Artikeln mit Belegvorschlägen auf Artikeldiskussionsseiten einreichen. Der Artikel-Content sollte wirklich tabu bleiben, weil wir das nie von Manipulation freihalten könnten. --Tom (Diskussion) 08:57, 1. Jul. 2023 (CEST)
- Bitte nicht. Dadurch würden die Diskussionsseiten mit „Verbesserungsvorschlägen“ vollgemüllt. Viele Grüße, Aschmidt (Diskussion) 12:13, 1. Jul. 2023 (CEST)
- Punkt 2 ist komplett ungeeignet. Zum einen, ab wie viel % Artikelarbeit durch einen Menschen ist es kein KI-Artikel mehr? Und derzeit sind die PE-Jäger schon weit über das Ziel hinaus geschossen und belästigen immer wieder Wissenschaftler statt echter Paid Editer bei deren Mitarbeit wegen angeblichem "Paid Editing". Man darf diesen Personen nicht noch ein Jagdfeld geben. -- Marcus Cyron Stand with Ukraine and Iran! 11:40, 1. Jul. 2023 (CEST)
- würde nicht immer gejagt werden (auch bei Variante 3 und 4), solange KI nicht grundsätzlich erlaubt? Und reicht es nicht zu sagen, bei einer Artikelerstellung wurde eine KI genutzt (ohne %-Angabe)? Vielleicht gehört das auch auf die Disk, sorry --Du Hugin Skulblaka (Diskussion) 11:49, 1. Jul. 2023 (CEST)
- Die besten Regeln für KI-Artikel nützen nichts, wenn wir solche Artikel nicht verlässlich erkennen können. Zwar gibt es stilistische und formale Indizien; die reichen aber für einen sicheren Beweis nicht aus, insbesondere dann nicht, wenn ein ChatGPT-Artikel manuell überarbeitet worden ist. (Zusatzfrage: Ab welchem Humananteil gilt ein Artikel nicht mehr als KI-generiert?) Und die Nachfrage „Hast du ChatGPT benutzt?“ garantiert auch keine ehrliche Antwort. Fazit: Wir können KI-generierte Artikel nicht mit genügender Sicherheit identifizieren. Es geht also nur über die Qualitätsschiene. Ich schlage daher vor, folgende Regeln einzuführen:
- Quellenlose Artikel erhalten 7 Tage zur Nachbesserung und werden danach gelöscht. Ein entsprechender Baustein ist zu entwickeln.
- Neu angelegte Artikel, in denen eine Quellenfiktion entdeckt wird, werden schnellgelöscht.
- Neu angelegte Artikel werden erst dann im ANR sichtbar, wenn sie von einem Sichter gegengelesen und gesichtet worden sind. (Wobei noch zu entscheiden wäre, ob das nur für Neuanlagen von IPs und Neulingen oder für alle Neuanlagen gelten soll.)
- Diese Regeln sind operationalisierbar und hätten den Vorteil, dass sie nicht nur gegen KI-Artikel wirken, sondern auch eine allgemeine Qualitätsverbesserung herbeiführen würden. (Diskussion zum Vorschlag bitte umseitig.)--Jossi (Diskussion) 12:15, 1. Jul. 2023 (CEST)
- Danke! Ich habe einen Diskussionsabschnitt zu deinem Vorschlag angelegt. Gestumblindi 12:26, 1. Jul. 2023 (CEST)
- Was ist ein „KI-generierter Artikel“? Ist ein Artikel, den ich geschrieben, zur Verbesserung der Formulierung durch eine KI gejagt und dann vor dem Posten noch mal auf Fehler gecheckt habe, KI-generiert? Ist ein Artikel, zu dem ich die Belege und Inhalte kenne, aber zu faul bin zum schreiben, bei dem ich dann Quellen und Gliederung einer KI übergebe und das Ergebnis vor dem Posten noch mal prüfe~/nachbessere, KI-generiert im Sinne einer zu schaffenden Vorschrift? Oder beginnt das Thema „KI-Generierung“ wenn ich ein Tool mit einem Thema beauftrage, das ich selbst nicht beherrsche durchdringe und das Ergebnis vor dem Posten nur oberflächlich/gar nicht prüfe? Oder erst, wenn die KI sich selbst in der WIkipedia als Benutzer anmeldet? Vor der Erfindung neuer Regeln müsste das mal klar sein. —Superbass (Diskussion) 17:45, 2. Jul. 2023 (CEST)
- Eine schwierige, aber sehr wichtige Frage, finde ich, auch ergänzend zu deinen Ausführungen oben (Variante 1,Nr.20). Ich kann sie auch nicht trennscharf beantworten. Instinktiv und spontan würde ich mir wünschen, dass eine Definition herauskommt, die dafür sorgt, dass das im Artikel dargebotene Wissen in einem menschlichen Gehirn mit seiner Urteilskraft und seinen Erfahrungen verarbeitet wurde. Das Verbessern einzelner Formulierungen mithilfe eines Chatbots/LLM würde mich nicht stören, denke ich. Aber wo die Grenze ziehen? --Iovis Fulmen (Diskussion) 20:07, 2. Jul. 2023 (CEST)
- Es wäre sicherlich hilfreich zu eruieren, wie sich wissenschaftliche Fachgesellschaften hierzu positionieren. Das wissenschaftliche Veröffentlichungswesen steht auch vor der Herausforderung, Best Practice-Regeln für den KI-Einsatz bei der Erstellung wissenschaftlicher Fachveröffentlichungen und von Qualifikationsarbeiten zu etablieren.--Espresso robusta (Diskussion) 21:41, 3. Jul. 2023 (CEST)
Vorschlag von der Disk.: Statt eines Komplettverbotes von KI-generierten Artikeln streben wir eine Schulung im Umgang mit diesen Werkzeugen an. Zur Regulation und Information wird die Seite Wikipedia:Umgang mit KI-Werkzeugen angelegt, die verbindliche Regeln enthält, die willigen Mitarbeitenden zeigen wo der Einsatz Sinn ergibt - und auch erlaubt ist - und wo nicht. Solche Punkte könnten lauten:
Erlaubt
- Bei Inhaltsübersetzungen, wenn der Text genau überprüft wird und die Person ausreichende Kenntnis der Sprachen besitzt
- Zur Formulierung allgemeinverständlicher Texte, auch dort mit nachfolgender Korrektur (auch zur Entfernung von Inhaltlichen Dopplungen und zur "Erzeugung" eines vielfältigen Wortschatzes)
- Als Ideengeber, bzw. Einstieg in ein neues Thema (Reviews sind natürlich besser geeignet ;)), wobei beachtet werden muss, dass KIs nicht neutral sind
- Zum Schönschreiben der Wiki-Syntax
- etc.
Nicht erlaubt
- ist es dagegen Inhaltliche Passagen, oder ganze Artikel generieren zu lassen:
- Quellen sind schwer zu überprüfen, da sie erfunden sein können, oder die Inhalte der Textstellen sind nicht aus der Quelle übernommen, bzw. nicht neutral dargestellt
- Auch die Auswahl der Quellen ist vielleicht nicht ausgewogen, sowie die Strukturierung des Textes
- KIs können nur so gut sein, wie der Datensatz mit dem sie trainiert wurden und dieser wurden von Menschen erstellt. Das heißt: viele der gesellschaftlichen Probleme spiegeln sich in KI-Systemen wieder: Diskriminierung, extremistische Meinungen etc., auch wenn Entwickler das zu verhindern suchen
- KIs sind meistens in Privatbesitzt, somit besteht die Gefahr der undeklarierten Zensur
- Es können sich URV ergeben
- Weitere Einschränkungen…
Wer sich nicht daran hält muss mit der Löschung des Artikels bzw. Abschnittes rechnen. -Quant8 (Diskussion) 02:20, 5. Jul. 2023 (CEST)
Zur Information, wie sich die englischsprachigen Kollegen mit dem Thema auseinandersetzen siehe den dortigen Policy-Draft. --Count Count (Diskussion) 12:53, 5. Jul. 2023 (CEST)
- Alles was man über "KI-generierte" Texte sagen kann, kann man auch über "KI-übersetzte" Texte (=maschinelle Übersetzung) sagen, in beiden Fällen stecken irgendwelche mit Daten gefütterten komplexen Strukturen drinnen, die aus einem Input ein Output generieren, nur bei den generierten Texten halt etwas mehr. Wenn man zusätzliche Regeln aufstellen möchte, sollte man das also auch beachten.--Naronnas (Diskussion) 08:35, 6. Jul. 2023 (CEST)
- Github hat ein Tool (Github Copilot) mit dem man sich beim Schreiben Vorschläge anzeigen lassen kann, wie der Code/Text weitergehen soll. Mit einem einzigen Tastendruck lässt sich dieser Text dann übernehmen und danach natürlich bearbeiten. Langfristig wäre es vielleicht sinnvoll, darüber nachzudenken, so ein Werkzeug auch in die Wikipedia einzubinden. Es hätte die Vorteile, dass
- - sich technisch nachvollziehen lässt, welche Textteile von der KI generiert wurden - dass man sich also nicht auf eine freiwillige Angabe verlassen muss
- - man Maßnahmen zur Verhinderung von Copyright-Verletzungen direkt integrieren kann (so auch bei Github Copilot)
- - man die prompts voreinstellen kann - das heißt, man kann vorher bereits angeben, dass 'die KI' z.B. in einem für die Wikipedia geeigneten Stil schreiben soll
Langfristig lässt sich vermutlich der Einsatz von KI sowieso nicht verhindern, wieso sie also nicht in unter selbst kontrollierten Bedingungen und allen Benutzer*innen gleichermaßen zugänglich machen.--Tunkall (Diskussion) 20:57, 10. Jul. 2023 (CEST)
Ablehnung der Umfrage
- --Prüm ✉ 03:26, 1. Jul. 2023 (CEST) Ob ein Artikel mittels oder mithilfe von KI erstellt wurde, können wir in den wenigsten Fällen wissen oder entscheiden. Hier soll wahrschinlich ein ähnliches Regime eingerichtet werden wie bei "Sockensperren" auf Zuruf.
- Bernd Bergmann (Diskussion) 22:55, 1. Jul. 2023 (CEST)
- Meiner Ansicht nach hat jeder der Punkte 1-3 was für sich. Zu Punkt 4: Bei KI-generierten Texten MIT sorgfältiger menschlicher Nacharbeit sehe ich kein größeres Risiko für Fehler als bei rein menschlicher Erstellung. Solange wir aber KI-generierte Texte nicht zuverlässig von „normalen“ unterscheiden können ist diese Umfrage witzlos. Soll in Zukunft der reine Verdacht, eine KI sei im Spiel gewesen, für eine Artikellöschung ausreichen ? Bitte nicht … ~~—— Da sollte eigentlich HH58 stehen - keine Ahnung, warum das nicht klappt :-(
- Du hast die Zeichen vertauscht. Es muss --~~~~ heißen. —viciarg414 08:19, 3. Jul. 2023 (CEST)
- Danke :-) --HH58 (Diskussion) 18:27, 3. Jul. 2023 (CEST)
- —Quant8 (Diskussion) 12:43, 11. Jul. 2023 (CEST) Für mich passt keine der Optionen, siehe meinen Vorschlag im Punkt weitere Anregungen.
Kommentare
Bitte die Diskussionsseite benutzen.