Wikipedia Diskussion:WikiProjekt KI und Wikipedia
Essentials |
Diskussion |
Hintergrund |
Texte |
Übersetzung |
Bild/Video/Musik |
Qualitätssicherung |
Interesse |
Neues hier diskutieren oder ankündigen, dann die Essenz auf den Themen-Seiten ("Reitern" oben) darstellen. Im Intro das, was alle Einzelthemen betrifft. Kürzere Demobeispiele hier eintragen, Für Längeres (bitte sparsam) kann man Unterseiten anlegen, dort als erste Zeile: {{Wikipedia:WikiProjekt KI und Wikipedia/Navigation}} |
Auf dieser Seite werden Abschnitte ab Überschriftenebene 2 automatisch archiviert, die seit 2 Tagen mit dem Baustein {{Erledigt|1=--~~~~}} versehen sind oder deren jüngster Beitrag 60 Tage alt ist. |
Archiv |
Wie wird ein Archiv angelegt? |
Einsatz von KI in der Wikipedia
KI kann in sehr verschiedenen Stadien der Texterzeugung eingesetzt werden:
- Internetrecherche: viele wissen gar nicht, wie viel KI Google und Co bei der Suche verwenden
- Literaturrecherche: Durchsuchen von Datenbanken mit wissenschaftlichen Texten. Ergibt zum Teil bessere Ergebnisse als eine Suche ohne KI und ermöglicht bessere Korrelationen zwischen den Ergebnissen.
- Freie Texterzeugung: Nutzung von LLMs (das ist das, woran wir hauptsächlich denken)
- Zusammenfassung von Texten: Vereinfachung von Inhalten eines PDF inkl. einfacher Formulierungen (bedarf natürlich der nachträglichen Kontrolle)
- Vorschläge zur Allgemeinverständlichkeit und Vereinfachung von selbst geschriebenen Texten: deepl write, wortliga ...(statistische Auswertung der Texte und Vorschläge zur Verbesserung der Lesbarkeit) (vgl. DTS 96)
- Übersetzung fremdsprachlicher Texte: deepl translate ...
- Überprüfung von Rechtschreibung und Grammatik
Hilfe für den Betrieb von Wikipedia und Erleichterungen für den Leser:
- verbesserte Suche nach Inhalten (ähnlich der Websuche von Google mit kurzer Vorschau)
- Durchsuchen von Wikipediatexten anhand einer in natürlicher Sprache gestellten Frage (z.B. Wie alt ist der Sänger xyz?). Farbige Hervorhebung von entsprechenden Textpassagen im Text oder der Infobox.
- Beantwortung einer vom Leser gestellten Frage in einer separaten Antwortbox in allgemeinverständlicher Sprache (Zusammenfassung eines Abschnitts speziell auf den Leser zugeschnitten. Sprachniveau in den Leser-Einstellungen vorher auswählbar.)
- Überprüfung von Textänderungen und Warnungen für die Eingangskontrolle, wenn ein Text werbend oder sprachlich unpassend geschrieben ist oder bestimmte Arten von Vandalismus enthält. Hinweis, wenn Inhalte ergänzt werden, ohne dass eine Quelle angegeben wurde.
- Überprüfung, ob die angegebene Quelle die Aussage im Artikel enthält.
- ...
--Salino01 (Diskussion) 23:13, 5. Jul. 2024 (CEST)
- Zu Punkt 2.5 gibt es auch mehr Infos zu SIDE:
- Maximilian Brose: Quellencheck: Künstliche Intelligenz hilft Wikipedia-Autoren. (mp3) Deutschlandfunk.de, 23. Oktober 2023, abgerufen am 6. August 2024.
- Fabio Petroni, Samuel Broscheit, Aleksandra Piktus, Patrick Lewis, Gautier Izacard, Lucas Hosseini, Jane Dwivedi-Yu, Maria Lomeli, Timo Schick, Michele Bevilacqua, Pierre-Emmanuel Mazaré, Armand Joulin, Edouard Grave, Sebastian Riedel: Improving Wikipedia verifiability with AI. In: Nature Machine Intelligence. Band 5, Nr. 10, Oktober 2023, ISSN 2522-5839, S. 1142–1148, doi:10.1038/s42256-023-00726-1 (nature.com [abgerufen am 6. August 2024]). --Salino01 (Diskussion) 19:51, 6. Aug. 2024 (CEST)
- Das SIDE-Tool von Facebook/Meta (zum Auffinden nicht verifizierbarer Belege und zum Vorschlagen von Ersatz für diese) könnte in der Tat potenziell sehr nützlich sein.
- Aber bevor sich jemand zu große Hoffnungen macht: Im Juli 2022 warnte der Hauptautor (inzwischen nicht mehr bei Meta tätig), dass "Side ein POC [Proof of Concept] ist, der zeigt, dass die Technologie vorhanden ist. Um ein Produktionssystem aufzubauen, ist noch viel zu tun. :)“ – und das Code-Repository hat in den zwei Jahren seitdem keine neuen Commits gesehen...
- Und selbst wenn der Code produktionsreif gemacht wird, werden die Serveranforderungen wahrscheinlich nicht unerheblich sein – allein die Modelle (die Meta lobenswerterweise unter einer freien Lizenz veröffentlicht hat) benötigen etwa 2 Terabyte Festplattenspeicher, was es beispielsweise wohl ausschließt, dies auf Toolforge zu hosten (eher schon auf der neuen "Lift Wing"-Infrastruktur der Foundation).
- Grüße, --HaeB (Diskussion) 00:44, 25. Aug. 2024 (CEST)
Generative KI verunreinigt Daten
Generative KI verunreinigt Daten Das Sprachanalyse-Projekt Wordfreq wird eingestellt, weil generative KI die verfügbaren Daten im Internet zu stark verunreinigt.
„Ursprünglich wurde mit dem Projekt das Internet durchsucht, um die sich ständig ändernde Popularität verschiedener Wörter im menschlichen Sprachgebrauch zu analysieren. Da mittlerweile zu viele große Sprachmodelle das Internet mit Inhalten geflutet hätten, die nicht von Menschen geschrieben seien, verzerrten diese die gesammelten Daten zu stark, erklärte Speer. Sie glaube nicht, dass irgendjemand zuverlässige Informationen über die Sprachverwendung nach dem Jahr 2021 habe.“
--Wortulo (Disk. * KI-Projekt) 17:29, 21. Sep. 2024 (CEST)
Wie erkenne ich KI-generierte Menschen in Videos?
„In den digitalen Medien und zunehmend auch im Fernsehen begegnen uns immer öfter scheinbar echte, doch tatsächlich mit Künstlicher Intelligenz (KI) erzeugte Personen. Die Technologie wird stetig besser, was es auf der anderen Seite schwerer macht, KI-generierte Menschen in Videos zu erkennen. Doch wenn man ganz genau auf bestimmte Details achtet, gelingt es.“
--Wortulo (Disk. * KI-Projekt) 12:38, 23. Sep. 2024 (CEST)
Google vs. KI: Suchmaschine will KI-generierte Bilder kennzeichnen
„Angesichts des derzeitigen Booms künstlicher Intelligenz sieht sich Google als Suchmaschinenanbieter mit einer wachsenden Zahl von Bildern konfrontiert, die durch KI erzeugt wurden. Diese sollen nun klar gekennzeichnet werden. Hierfür wird Google die Metadaten der Coalition for Content Provenance and Authenticity (C2PA) nutzen.
Bilder, die C2PA-Metadaten beinhalten, werden es Nutzern bald ermöglichen, über die Google-Suche, Google Lens und Circle Search zusätzliche Auskünfte darüber zu erhalten, ob die Bilder mit Hilfe von KI-Anwendungen erzeugt oder modifiziert wurden...
Die C2PA-Metadaten bieten die Möglichkeit, zu erkennen, ob ein Bild mit einer Kamera aufgezeichnet, mit Software modifiziert oder durch generative KI hergestellt wurde. Diese Daten sollen es den Benutzern erleichtern, besser informierte Entscheidungen über die Glaubwürdigkeit der Inhalte zu fällen.“
Wortulo (Disk. * KI-Projekt) 12:43, 23. Sep. 2024 (CEST)
Langsamer, aber besser – OpenAI stellt KI-Modelle „o1“ vor
Langsamer, aber besser – OpenAI stellt KI-Modelle „o1“ vor Handelsblatt live vom 23.9.2024
„Die neue KI des ChatGPT-Entwicklers soll komplexe Probleme besser lösen als bisherige Varianten. OpenAI versucht dabei, dem menschlichen Denken näher zu kommen. Das hat Vor- und Nachteile.„Wir haben eine neue Reihe von KI-Modellen entwickelt, die mehr Zeit zum Nachdenken brauchen, bevor sie reagieren“, teilte OpenAI am Donnerstag mit. Durch ein spezielles Training hätten die Modelle laut OpenAI gelernt, „ihren Denkprozess zu verfeinern, verschiedene Strategien auszuprobieren und ihre Fehler zu erkennen“, heißt es in einem Blogbeitrag. In Tests, die die Firma selbst durchgeführt hat, sollen die o1-Modelle in Physik, Chemie und Biologie ähnlich gut abschneiden wie Doktoranden. OpenAI verwies vor allem auf den Fortschritt zu früheren Modellen: Bei einem Qualifikationstest für die Internationale Mathe-Olympiade habe das bis dato leistungsfähigste GPT-4o-Modell 13 Prozent der Aufgaben korrekt gelöst, das „Denkmodell“ 83 Prozent. Zu beachten: Solche Benchmarkings sind methodisch umstritten, aber derzeit das beste Verfahren, um KI-Modelle zu vergleichen.“
--Wortulo (Disk. * KI-Projekt) 16:38, 24. Sep. 2024 (CEST)
KI-Experte enttäuscht: „Mittelmaß können wir jetzt automatisiert produzieren“
KI-Experte enttäuscht: „Mittelmaß können wir jetzt automatisiert produzieren“ newsroom.de 24.9.2024
„Von der anfänglichen Euphorie, Generative KI tauge allenfalls als „glamouröse Wortvervollständigungsmaschine“. Den Aufwand, um Fehler und Halluzinationen der Technik zu eliminieren, hätten viele, die heute auf KI setzen, deutlich überschätzt. Auch die Befürchtungen, KI würde kreative Arbeit ersetzen, hätten sich nicht erfüllt. Gerade mal „Mittelmaß können wir jetzt automatisiert produzieren““
--Wortulo (Disk. * KI-Projekt) 16:41, 24. Sep. 2024 (CEST)
Stanford KI-Experiment "STORM" generiert Artikel im Wikipedia-Stil
„Forschende der Stanford University haben mit STORM ein KI-System entwickelt, das die Vorbereitungsphase beim Schreiben von Wikipedia-Artikeln automatisiert. Es recherchiert selbstständig zu einem Thema, sammelt Quellen und erstellt eine detaillierte Gliederung.“
--Wortulo (Disk. * KI-Projekt) 18:56, 25. Sep. 2024 (CEST)
- Ich habe Storm einmal ausprobiert, um mir ein, zwei "Artikel" zu erstellen. Die Texte wirken auf den ersten Blick recherchiert, aber sind eher eine Collage aus Zeitungsmeldungen, es fehlt in der Regel an den eigentlichen Belegen für Aussagen. Genau das richtige, um die echte Wikipedia mit Texten zuzukleistern, die nur mühsam dann brauchbar gemacht werden können. Eines der Themen waren die lebensmittelrechtlichen Vorgaben des Döner Kebap in Berlin. Der Artikel driftete immer auf die laufenden Anträge bei der EU zum Garantiert traditionelle Spezialität ab, aber ignoriert alle Berliner Aspekte von 1989 mit der "Berliner Verkehrsauffassung für das Fleischerzeugnis Dönerkebap". Der harmloseste Vorwurf an so einen Artikel war "Thema verfehlt". --Mathias Schindler (Diskussion) 20:09, 1. Nov. 2024 (CET)
- Das kam mir letztens Mal in der KI Diskussionsgruppe der Kirche unter. Es wollte aber ständig nur Begründungen, warum ich es benutzen will, nach 3 Versuchen abgebrochen. --Gerhardbeck (Diskussion) 13:53, 2. Nov. 2024 (CET)
Wikidata und Künstliche Intelligenz: Vereinfachter Zugang
Wikidata und Künstliche Intelligenz: Vereinfachter Zugang zu offenen Daten für Open-Source-Projekte blog.wikimedia.de
„Wikimedia Deutschland hat zusammen mit DataStax und Jina AI ein Projekt gestartet, das den Zugang zu den offenen Daten von Wikidata für KI-Anwendungen vereinfacht. Dadurch sollen nicht nur Tech-Giganten, sondern auch Open-Source-Initiativen die Möglichkeit haben, diese Daten zu nutzen. Ziel ist es, vor allem die Entwicklung von gemeinnützigen KI-Anwendungen auf der Grundlage offener und qualitativ hochwertiger Daten zu unterstützen...Wikimedia Deutschland hat im Dezember 2023 mit der Umsetzung dieses semantischen Suchkonzepts begonnen. Die ersten Beta-Tests eines Prototyps sind für 2025 geplant. Dieses Projekt ist eine große Chance, KI-Anwendungen und das Informationsökosystem zu verbessern und gleichzeitig die Grundwerte der Offenheit und Transparenz zu wahren.“
Ich sehe das Problem: Ist die Qualität von WIKIDATA wirklich so ausreichend, dass das eine Basis für "verlässliche Daten für alle" sein kann? Haben die dort eine ausreichende QS? --Wortulo (Disk. * KI-Projekt) 09:37, 27. Sep. 2024 (CEST)
"Perplexity AI mischt die Internet-Suche auf"
Diese KI-Suchmaschine verändert das Internet Heyse online vom 29.9.2024
„KI-Suchmaschine, die Google herausfordert. Statt langer Suchergebnisse liefert Perplexity AI präzise Antworten auf komplexe Fragen und bietet dabei Zugang zu wissenschaftlichen Quellen, Social Media und Videos...“
Auch: Markus Schwarze:„Plexen“ soll das neue Googeln werden FAZ Pro vom 28.9.2024 Wortulo (Disk. * KI-Projekt) 17:58, 29. Sep. 2024 (CEST)
- Das krass. Hilft auch für uns über unsere Rolle zwischen all den Funktionen, Sprachmodellen usw. nachzudenken. --Jensbest (Diskussion) 13:17, 2. Okt. 2024 (CEST)
suche KI zur Datenverarbeitung
Könnt ihr eine KI empfehlen, die gut ist, um Daten miteinander abzugleichen? Zum Beispiel eine Wikipedia-Tabelle mit einer diffusen Liste, mit jeweils mehreren Hundert Einträgen? Habe online nach kostenlosen Programmen gesucht, aber die Ergebnisse waren ernüchternd. Es ging beim letzten Mal zwar iiirgendwie, aber Problem 1 war, dass sie alle eine Zeichenbegrenzung für ihre Antwort haben und ich meine Anfrage deswegen auf 20 Anfragen splitten musste, und Problem 2, dass sie mir "in den Kram" wollten und die Daten nicht neutral bearbeiten, sondern noch versuchen, ihre eigene Meinung einzubringen, so dass ich dann nacharbeiten musste. Danke! Liebe Grüße,--Vergänglichkeit (Diskussion) 11:19, 6. Okt. 2024 (CEST)
- Ich habe das selber noch nicht gemacht, aber Copyleaks könnte man dazu entfemden? Das eine ist das Original und das andere die Kopie - ideal ist dann 100% "geklaut" ;-) Die bieten eine DEMO zumindest, aber ob das für grosse Datenmengen kostenlos geht, bin ich skeptisch. --Wortulo (Disk. * KI-Projekt) 17:52, 6. Okt. 2024 (CEST)
Wie künstliche Intelligenz an Schule und Hochschule helfen kann
Wie künstliche Intelligenz an Schule und Hochschule helfen kann MDR Nachrichten 5. Oktober 2024
„Thesen: KI ist in Schulen und Unis angekommen, Mit KI erstellte Texte sind nicht zu erkennen, Studierende und Lehrende können von KI profitieren“
--Wortulo (Disk. * KI-Projekt) 08:41, 7. Okt. 2024 (CEST)
Ab wann ist eine KI vertrauenswürdig?
Michael Lang, Richard Kraft: Ab wann ist eine KI vertrauenswürdig? Tagesschau vom 3.10.2024; siehe auch: MISSION KI – Neues Innovations- und Qualitätszentrum am DFKI eröffnet Pressemitteilung vom 19.7.2024
„Wie genau ein KI-Modell eine Entscheidung trifft, ist oft nicht nachvollziehbar - eine Tatsache, die den Einsatz etwa in der Medizin erschwert. Das neue Zentrum DFKI in Kaiserslautern will Transparenz schaffen. Ein wichtiger Bestandteil der Forschung ist es, KI-Anwendungen zu entwickeln, die transparent arbeiten. "Die Ergebnisse so zu erklären, dass sie annehmbar werden als Zweitmeinung, ist ganz essenziell" Im Zuge der "Mission KI" ist das DFKI das erste von zwei geplanten Zentren für die KI-Forschung. Das Projekt wurde von der Bundesregierung mit einem Gesamtbudget von 32 Millionen Euro unterstützt. Damit will der Bund die Entwicklung neuer, vertrauenswürdiger Künstlicher Intelligenzen vorantreiben.“
--Wortulo (Disk. * KI-Projekt) 08:50, 7. Okt. 2024 (CEST)
Halluzinations-Problem: Der mühsame Kampf gegen die Dummheit der KI
Benedikt Fuest: Halluzinations-Problem. Der mühsame Kampf gegen die Dummheit der K¡ WELT Wirtschaft vom 7.10.24
„Manchmal fallen sie erst auf den zweiten Blick auf: Doch KI-Programme machen immer noch enorme Fehler. Das liegt nicht zuletzt an einem zentralen Problem. Längst suchen Forscher nach Lösungen – ein deutsches Unternehmen hat dabei einen eigenen Ausweg „Eine Möglichkeit, das Vertrauen in die Ergebnisse von LLMs zu erhöhen, besteht darin, die Ergebnisse mit Argumenten zu belegen, die klar und leicht zu überprüfen sind – eine Eigenschaft, die wir Lesbarkeit nennen“, heißt es seitens des Forscher-Teams um den Neurowissenschaftler Jan Henrik Kirchner, das bei OpenAI daran geforscht hat, die Zuverlässigkeit der Ergebnisse zu verbessern. Dabei sind sie auf die Idee gekommen, nicht eine, sondern zwei künstliche Intelligenzen gemeinsam zu trainieren. Die erste KI, der „Beweiser“, generiert eine Antwort auf eine Frage. Die Zweite, der „Prüfer“, überprüft das Ergebnis darauf, ob der Lösungsweg nachvollziehbar ist.“
--Wortulo (Disk. * KI-Projekt) 19:39, 8. Okt. 2024 (CEST)
Zukunftskongress Wikipedia Fortführung
Am 16.10. wird der Zukunftskongress online fortgesetzt. Punkt 5 ist "Technische Entwicklungen für Community nutzbar machen (z. B. Benutzerfreundlichkeit, Einbindung KI zur Unterstützung)". Für mich waren die Vorträge beim ersten Zukunftskongress ein Auslöser, hier mitzumachen und die Bedeutung zu erkennen. In Wiesbaden hatte ich nach dem Verhältnis zur Community gefragt und (ich hoffe, ich gebe das richtig wieder) man sucht auch die Zusammenarbeit, sieht die endgültige Verantwortung der Community und bündelt das Nachdenken über die Zukunft. Weil wir für dieses Projekt Wissen aus erster Hand brauchen (die besten Experten) und das Beschäftigen auch Ressourcen erfordert, sollte man über eine Zusammenarbeit in diesem Punkt nachdenken. Ich will das zumindest dort mal einbringen (@Elisabeth Mandl (WMDE):) und bin gespannt, ob und wie wir das produktiv nutzen und die Gefahren einer "Verunreinigung" der Wissensbestände verhindern können. --Wortulo (Disk. * KI-Projekt) 07:26, 11. Okt. 2024 (CEST)
OpenAI in der Bredouille: KI-Training verschlingt bis 2030 bis zu 200 Milliarden Dollar
Jörn Brien:OpenAI in der Bredouille: KI-Training verschlingt bis 2030 bis zu 200 Milliarden Dollar digital pioneers 10.10.24
„Die Gewinnzone ist für ChatGPT-Entwickler OpenAI noch außer Reichweite. Stattdessen dürften sich die Verluste in den kommenden Jahren deutlich erhöhen. Dafür sind vor allem Training und Betrieb von KI verantwortlich. Ein hohes Risiko. Dafür, dass OpenAI trotz des KI-Hypes noch bis Ende des Jahrzehnts rote Zahlen schreiben dürfte, sind nicht zuletzt Training und Betrieb von KI-Modellen verantwortlich. OpenAI rechnet mit Ausgaben von bis zu 200 Milliarden Dollar bis 2030. Zwischen 60 und 80 Prozent sollen allein in die KI-Modelle fließen. Um den Umsatz zu steigern, will das Startup unter anderem die Nutzung der Premiumvariante von ChatGPT deutlich teurer machen. Bis Ende 2024 soll der Abopreis zunächst von 20 auf 22 Dollar pro Monat ansteigen. Bis zum Jahr 2029 ist dann eine Verdopplung der Gebühren auf 44 Dollar vorgesehen. OpenAI muss also mindestens weiter stetig beeindruckende KI-Fortschritte melden und hoffen, dass die Konkurrenz nicht oder nicht schnell genug aufholt. Dann könnten sich auch weiterhin finanzstarke Investor:innen finden, die auf das baldige Erreichen der Gewinnzone und/oder einen Börsengang setzen.“
Vorsicht, Blasenbildung und nicht zu abhängig davon machen? --Wortulo (Disk. * KI-Projekt) 19:19, 11. Okt. 2024 (CEST)
KMK Länder einigen sich auf Empfehlungen zum Umgang mit KI in Schulen
Florentine Anders: KMK: Länder einigen sich auf Empfehlungen zum Umgang mit KI in Schulen Deutsches Schulportal vom 10. Oktober 2024
„Während im Ausland teilweise auch Nutzungsverbote von Künstlicher Intelligenz an Schulen diskutiert werden, empfehlen die Kultusministerien einen „konstruktiv-kritischen“ Umgang mit der KI im Bildungsbereich. Am 10. Oktober veröffentlichte die KMK gemeinsame Handlungsempfehlungen. Auch bereits in der Grundschule könne das Lernen mit KI-Sprachmodellen demnach sinnvoll sein.“
Was man in der Schule lernt, will man dann im Leben auch nutzen und erproben. Warum nicht auch in der Wikipedia? ;-) --Wortulo (Disk. * KI-Projekt) 19:25, 11. Okt. 2024 (CEST)
Automoderator (Vandalismusbekämpfung)
- Tools/Automoderator, Werkzeug für die Vandalismusbekämpfung, siehe auch Diskussion unter Projektdiskussion.
--Wortulo (Disk. * KI-Projekt) 19:44, 11. Okt. 2024 (CEST)
Dazu noch: Moderation durch KI: Tiktok baut weltweit hunderte Arbeitsplätze ab swissinfo.ch vom 12. Oktober 2024
„Der Onlinedienst Tiktok hat vor dem Hintergrund der vermehrten Nutzung von Künstlicher Intelligenz (KI) bei der Moderation von Inhalten angekündigt, weltweit hunderte Arbeitsplätze zu streichen.“
Die machen das also auch schon. --Wortulo (Disk. * KI-Projekt) 15:02, 13. Okt. 2024 (CEST)
Betrug bei schriftlichen Arbeiten? Das KI-Problem für die Unis
Nicolas Walter:Betrug bei schriftlichen Arbeiten? Das KI-Problem für die Unis WELT vom 13.10.2024
„Können Studenten schriftlich Haus- und Abschlussarbeiten künftig einfach mithilfe Künstlicher Intelligenz erstellen? Manche Uni fängt an, sich gegen Betrugsversuche zu wappnen. Im Ausland werden bereits Bachelor-Arbeiten mancherorts abgeschafft. Zusätzliche Präsenzprüfungen kommen ins Spiel“
Dort sind die Probleme ähnlich, es ist aber auch unklar, wo der Betrug anfängt und was noch legitime Nutzung ist. --Wortulo (Disk. * KI-Projekt) 13:07, 14. Okt. 2024 (CEST)
Wiki-Bot: Wissen aus der Wikipedia verständlich für alle. Jetzt testen!
„Auf der Plattform ChatGPT kann man ChatGPT-Bots (Custom GPTs oder kurz: GPTs) erstellen. Das sind spezielle Tools mit künstlicher Intelligenz (KI). Das Team von Multisprech hat bereits einen eigenen ChatGPT-Bot entwickelt: Klar und Verständlich (K&V). Er überträgt schwierige Texte in Einfache Sprache (siehe Aufruf K&V). Jetzt haben wir einen „Zwilling“ entwickelt: den Wiki-Bot. Er kann Wissen aus der weltweiten Wikipedia klar und verständlich vermitteln. Open AI hat die ChatGPT-Bots zur kostenlosen Nutzung freigeschaltet. Man muss nur auf der Plattform von ChatGPT registriert sein. Damit ist der Wiki-Bot frei zugänglich, auch per App von ChatGPT.“
Wurde heute bei der Fortsetzung des Zukunfzskongresses informiert. Wortulo (Disk. * KI-Projekt) 19:35, 16. Okt. 2024 (CEST)
Eindruck Fortsetzung Zukunftskongress und quo vadis Zukunft
Es war konstruktiv, es waren aber nur wenig Leute da (nur etwa die Hälfte der Angemeldeten). Insgesamt ist man bei Wikimedia auch noch in einer breiteren Findungsphase zu mehreren Themen, die technische Weiterentwicklung und dort KI sind ein Thema. Wenn ich mir die Diskussion zu Automoderator (3 drüber) anschaue, scheinen breit angelegte allgemeine Diskussionen noch wenig produktiv. Imho sieht ein Teil vor allem die noch vorhandenen Probleme und bleibt konservativ. Daneben gibt es zahlreiche Benutzer, die selber experimentieren und vielleicht auch keine Lust auf solche Diskussionen haben. Wenn man akzeptiert, dass KI nicht wieder so einfach vorbei geht wie andere Wellen, den "Hype" rausrechnet, müssen wir uns imho trotzdem vorbereiten und die „Verunreinigung“ von WP verhindern durch Halluzinationen der KI und unser Wissen bestmöglichst kuratieren.
Und natürlich das vorhandene Potential von KI optimal nutzen: Verständlichkeit vorhandener Texte verbessern und Rohübersetzungen für ein Postediting sind schon jetzt breiter nutzbar, Recherchen für Texte mittels Chatbots möglich und oft hilfreich, Qualitätssicherung und Vandalismusbekämpfung auf dem Weg, Schreibenlassen von Artikeln und ungeprüftes Einstellen doch ein NoGo.
Vielleicht gibt es 4 Dinge, wo das Projekt helfen kann:
- Neue Entwicklungen sammeln und darstellen (das geschieht hier schon, einfach mutig weiteres ergänzen)
- Uns mit Entwicklern innerhalb und ausserhalb WP austauschen (Hier kann Wikimedia helfen, Veranstaltungen zu organisieren). Dazu kann man vielleicht auch das bewährte und in Wiesbaden mit einer Eule ausgezeichnete Stammtischformat nutzen @Salino01:?
- Qualitätskriterien angepasst an den jeweiligen Entwicklungsstand zu entwerfen (die dynamisch sein werden).
- Selber etwas experimentieren und zur (konstruktiven) Diskussion stellen.
Die „Reiter“ oben auf der Projektseite sollen die verschiedenen Anwendungsgebiete auflisten und man sollte das Wissen danach etwas ordnen. Zumindest wollen wir den aktuellsten und umfassendsten Überblick erst mal erreichen und das können wir schaffen. Über den Rest müssten wir uns mal austauschen.--Wortulo (Disk. * KI-Projekt) 21:17, 17. Okt. 2024 (CEST)
KI bewertet KI: Wie schneiden OpenAI und Co. beim AI Act ab?
Marvin Fuhrmann KI bewertet KI: Wie schneiden OpenAI und Co. beim AI Act ab? digital pioneers 17.10.24
„Seit dem 1. August 2024 ist der AI Act der EU gültig. Noch haben viele KI-Unternehmen eine Gnadenfrist. Einige wichtige Punkte des EU AI Acts treten erst 2025 oder sogar noch später in Kraft. Dennoch müssen sich die Unternehmen und vor allem ihre KI-Programme auf die Regelungen vorbereiten. Aktuell ist das in einigen Bereichen noch ein steiniger Weg. Die KI testet andere künstliche Intelligenzen in mehreren Bereichen. Dazu zählen etwa Sicherheit, Transparenz, Privatsphäre sowie Diversität und Nichtdiskriminierung. Als Beispiel zeigt Compl-AI einen Bericht zu GPT-4 Turbo auf der zugehörigen Website. Das Modell von OpenAI erhält einen Gesamtwert von 0,89 und schneidet damit ziemlich gut ab. Die Schwächen zeigen sich allerdings im Detail. So hat das Modell im Bereich Diversität, Nichtdiskriminierung und Fairness nur eine 0,68 bekommen. Laut Compl-AI scheitert GPT-4 Turbo vor allem bei Fairness.“
Es werden Werte auch anderer KI noch vorgestellt. --Wortulo (Disk. * KI-Projekt) 12:39, 18. Okt. 2024 (CEST)
"As many as 5%" of new English Wikipedia articles "contain significant AI-generated content", says paper
Wikipedia:Wikipedia Signpost/2024-10-19/Recent research stellt das dar. Die haben zwei verschiedene Erkennungstools eingesetzt - das bezieht sich auf Artikel, die im August 24 eingestellt wurden. Laut Grafik: Englisch (zwischen 3 und 5%), Französisch (zwischen 1,5 und etwas unter 5%) Deutsch (zwischen 2 und 1%) und Italienisch (zwischen 3 und 5%) kriegen die raus. Man muss das nochmal genau anschauen und "KI-Sound" kommt ja durch Einfachformulierung, Übersetzung oder gar KI-Schreiben rein.
„These are among the first research results providing a quantitative answer to an important question that Wikipedia's editing community and the Wikimedia Foundation been weighing since at least the release of ChatGPT almost two years ago.“
Es lohnt sich, die genauen Analysen und auch die Kritik an der Studie genauer anzuschauen, weder Panik noch ein "Verdrängen" des Problems scheinen angemessen:
- 45 Artikel (1.5%) wurden von den beiden Tools als KI-generiert gekennzeichnet. 8 waren Werbung, weitere die einen bestimmten Standpunkt in polarisierenden Diskussionen vertraten, 3 maschinelle Übersetzungen und solche, wo die KI als Schreibwerkzeug offenbar zur Verbesserung eingesetzt wurde.
- Die Zahlen der neuen Studie sollten als konkreter Beweis dafür wertvoll sein, dass die generative KI tatsächlich begonnen hat, Wikipedia auf diese Weise zu beeinflussen (aber möglicherweise auch für diejenigen beruhigend sein, die befürchteten, dass Wikipedia vollständig von ChatGPT-generierten Artikeln überrannt werden würde).
- Es gibt einige ernsthafte Bedenken hinsichtlich der Interpretation der Daten der Studie - wie viele wurden auch von Wikipedianern entdeckt, gelöscht oder mit Bausteinen versehen ("Die meisten seien mit Warnungen versehen worden").
- Unbefriedigend beantwortet bleibt, ob die generative KI die Qualitätskontrollmechanismen von Wikipedia unterläuft - oder ob diese LLM-generierte Artikel neben dem bestehenden nie endenden Strom von vom Menschen erzeugtem Vandalismus, Hoaxes oder Artikeln mit fehlenden oder irreführenden Referenzen gut erkannt werden.
- Die Zuverlässigkeit von Software zur Erkennung von KI-Inhalten - wie den beiden Tools, auf denen die numerischen Ergebnisse der Studie basieren - wurde auch wiederholt in Frage gestellt. Beide Tools waren auch unterschiedlich sensibel in verschiedenen Sprachen.
Mein Fazit: Man muss dranbleiben. --Wortulo (Disk. * KI-Projekt) 19:03, 19. Okt. 2024 (CEST)
Hinweis auf richtungweisendes Urteil zur Nutzung von Fotos durch wissenschaftliche KI-Trainingsprogramme
Könnte auch Auswirkungen auf Wikimedia-Projekte haben, siehe hier. —Martin (WMDE) (Disk.) 11:45, 21. Okt. 2024 (CEST)
- Danke, Martin. Solche Klagen werden ja erwartet. Aus dem Artikel dahinter: Danach sind Vervielfältigungen für Text- und Data-Mining für Zwecke der wissenschaftlichen Forschung zulässig, sofern u.a. keine kommerziellen Zwecke verfolgt werden. Das Gericht sah dies verwirklicht, weil der Datensatz der Öffentlichkeit – und damit auch Forschenden auf dem Gebiet künstlicher neuronaler Netze – zur Verfügung gestellt wurde. Die wissenschaftliche Anwendungsabsicht spielte eine Rolle. Ich denke aber an die geplante/erfolgte Freigabe von Wikidata für Trainingszwecke, wo Bilder ja dazugehören. KI-Ergebnisse auf der Basis dieses Trainings können aber auch kommerziell genutzt werden. Was bei uns drin ist, ist ja frei. Einiges aber nur mit Namensnennung des Autors. Ob die KI das beachten? Müsste man als Forderung stellen? Bisher hatte ich nur Bedenken, dass in Wikidata vieles auch ungeprüft ist und teilweise nicht stimmt. Das käme dazu. @Gnom: kann man dazu schon mehr sagen? Wortulo (Disk. * KI-Projekt) 12:13, 21. Okt. 2024 (CEST)
- Sorry, was ist die Frage? --Gnom (Diskussion) Wikipedia grün machen! 15:06, 21. Okt. 2024 (CEST)
- Allgemein mögliche Konsequenzen des Urteils und speziell wie das mit unseren Lizenzen mit Namensnennung ist, wenn die fürs Training verwendet werden - ob man darauf bei Verwendung von Wikidata fürs Training hinweisen sollte? @Gnom: --Wortulo (Disk. * KI-Projekt) 15:26, 21. Okt. 2024 (CEST)
- 1. Die rechtlichen Aussagen des Urteils sind in der Tat wesentlich, aber inhaltlich noch beschränkt, man sollte Saskias Einordnung deshalb sehe genau lesen.
- 2. Nach dem aktuellen Stand kann man aus dem Urteil den Schluss ziehen, dass Wikipedia-Inhalte zu wissenschaftlichen Zwecken für KI-Training verwendet werden können, ohne dass eine Namensnennung erfolgen muss. Bei Wikidata-Daten gilt das wegen CC0 sowieso. Beantwortet das deine Fragen? --Gnom (Diskussion) Wikipedia grün machen! 16:13, 21. Okt. 2024 (CEST)
- Ja, erst mal. Bilder sind aber eben nicht alle CC0, sondern manche mit Namensnennung des Fotografen und Du gehst davon aus, dass die nur die nackten Daten aus Wikidata nehmen und nicht die Bilder selber mit. --Wortulo (Disk. * KI-Projekt) 19:59, 21. Okt. 2024 (CEST)
- Allgemein mögliche Konsequenzen des Urteils und speziell wie das mit unseren Lizenzen mit Namensnennung ist, wenn die fürs Training verwendet werden - ob man darauf bei Verwendung von Wikidata fürs Training hinweisen sollte? @Gnom: --Wortulo (Disk. * KI-Projekt) 15:26, 21. Okt. 2024 (CEST)
- Sorry, was ist die Frage? --Gnom (Diskussion) Wikipedia grün machen! 15:06, 21. Okt. 2024 (CEST)
Projektförderung durch Wikimedia gewünscht?
Wenn man mit KI selber etwas experimentieren will, sollte man die neuesten Versionen der KI nutzen. Diese sind meist kostenpflichtig - die freien Versionen nutzen meist Vorgängerversionen. Auf der Vorderseite habe ich eine Tabelle mit Modellen und den Chatbots angefangen.
Was haltet Ihr davon, wenn wir einen Förderantrag stellen, ob für die Wikipedianutzung solche Abos übernommen werden können? Eine Voranfrage war positiv (die wollen auch jemanden bestimmen, der dann dort für KI DORT zuständig und ansprechbar ist). Wie ist aber das Interesse bei uns?
Wir brauchen einen Rahmen-Projektantrag (würde ich mich kümmern) wo die einzelnen Personen gelistet sind, was sie wie lange brauchen und was sie genauer machen wollen. Das wird ja verschieden sein, weil die Anwendungen vielfältig sind.
Die Zahl der Slots für das Projekt muss man sicher begrenzen. ChatGPT kostet pro Person und Monat 20 Dollar, Rabatt scheint es nicht zu geben. Bei beispielsweise zehn Slots wären das pro Jahr 2400 Dollar. Bei der Konkurrenz ist es ähnlich. Man sollte das für 1/2 bis 1 Jahr pro Person vergeben.
Man sollte nicht nur an Chatbots denken, sondern z.B. an die KI-Erkennungstools, die für die Leute von der Qualitätssicherung interessant sind und in den professionelleren Versionen auch etwas kosten. Und wer etwas vergleichen will, braucht sicher mehr als einen Slot. Also erst mal allgemein nach Interesse gefragt. Könnt Ihr (erst mal ohne Ping) antworten - auch wenn kein Interesse wäre? --Wortulo (Disk. * KI-Projekt) 21:42, 26. Okt. 2024 (CEST)
- Klingt nach einer guten Idee. KI muss verstanden und begriffen werden, dazu sind durchaus die kostenpflichtigen Modelle gefragt. Stell mal einen Antrag für das ganze Team. Ich trage mich auch ein. Also alt-ITler der immer auf neuestem Stand ist auch für mich sehr interessant und schon seit Jahren dabei. ~~~~ --Michael - Et si omnes, ego non 09:31, 27. Okt. 2024 (CET)
Treffen?
Auf der WikiCon hatten Wortulo und ich überlegt, wie man die Arbeit des Projektes verbessern kann und es kam die Idee auf, ein Treffen der Projektmitarbeiter zu organisieren, dass wir gemeinsam in (zunächst) einer Videokonferenz unsere Ideen und nächsten Schritte besprechen können. Wenn Interesse besteht, daher bitte unten eintragen. Terminvorschläge wären: A) Montag 18. November, 19.30 Uhr, B) Dienstag 26. November, 19:30 Uhr, C) Mittwoch 20. November 19:30 Uhr und D) Donnerstag 28. November, 19:30 Uhr. Bitte bis 10. November eintragen.--Karsten11 (Diskussion) 14:32, 27. Okt. 2024 (CET)
Abstimmung:
- Am 20.11. findet schon ein DTS zum Thema „Verständlich mit KI? Nutzen von KI-Tools für die Wikipedia“ statt. Daher Veto für diesen Termin. --Salino01 (Diskussion) 17:45, 27. Okt. 2024 (CET)
- Dann nehme ich den Termin raus und ergänze einen neuen: C) Mittwoch 27. November 19:30 Uhr--Karsten11 (Diskussion) 19:42, 27. Okt. 2024 (CET)
- Ihr solltet noch einen Hinweis auf diese Abstimmmung auf die Diskussionsseiten der Mitarbeiter posten. --Salino01 (Diskussion) 11:18, 31. Okt. 2024 (CET)
- @Aschmidt, Perrak, Jensbest, Pacogo7, Wikiolo: @Nordprinz, Triomint69, AnBuKu, Tulipasylvestris, Aklemm: @Daniel Mietchen, Michael.Kramer, Brunswyk, TenWhile6: und die schon haben: @Karsten11, BineMan, Salino01, Stmjst: Ich versuchs erst mal mit einem Ping. Könnt Ihr Euch bitte in die Terminliste eintragen (auch wenn kein Interesse bestehen sollte). Über die Förderung - Punkt eins drüber - kann man dann reden. --Wortulo (Disk. * KI-Projekt) 13:07, 1. Nov. 2024 (CET)
- Ich trage mich ein, muss aber vorher die Termine abklären. -- Perrak (Disk) 14:24, 1. Nov. 2024 (CET)
- @Aschmidt, Perrak, Jensbest, Pacogo7, Wikiolo: @Nordprinz, Triomint69, AnBuKu, Tulipasylvestris, Aklemm: @Daniel Mietchen, Michael.Kramer, Brunswyk, TenWhile6: und die schon haben: @Karsten11, BineMan, Salino01, Stmjst: Ich versuchs erst mal mit einem Ping. Könnt Ihr Euch bitte in die Terminliste eintragen (auch wenn kein Interesse bestehen sollte). Über die Förderung - Punkt eins drüber - kann man dann reden. --Wortulo (Disk. * KI-Projekt) 13:07, 1. Nov. 2024 (CET)
- Ihr solltet noch einen Hinweis auf diese Abstimmmung auf die Diskussionsseiten der Mitarbeiter posten. --Salino01 (Diskussion) 11:18, 31. Okt. 2024 (CET)
- Dann nehme ich den Termin raus und ergänze einen neuen: C) Mittwoch 27. November 19:30 Uhr--Karsten11 (Diskussion) 19:42, 27. Okt. 2024 (CET)
kein Interesse | A 18.11. | B 26.11. | C 27.11. | D 28.11. | Kein Termin passt | Benutzer |
---|---|---|---|---|---|---|
ja | ja | ja | ja | Benutzer:Karsten11 | ||
ja | ja | ja | ja | Benutzer:Wortulo | ||
ja | ja | ja | ja | Benutzer:Salino01 | ||
ja | ja | ja | ja | Benutzer:BineMan | ||
ja | ja | ja | ja | Benutzer:TenWhile6 | ||
nein | nein | ja | ja | Benutzer:Jensbest | ||
ja | ja | ja | ja | Benutzer:Nordprinz | ||
ja | ja | ja | ja | Perrak | ||
ja | ja | ja | ja | DerMaxdorfer | ||
ja | ja | ja | ungern | Martin (WMDE) | ||
x | --Michael - Et si omnes, ego non 07:58, 3. Nov. 2024 (CET) | |||||
DTS: „Verständlich mit KI? Nutzen von KI-Tools für die Wikipedia“
Hallo WikiProjekt KI und Wikipedia,
Die Wikipedia ist eine der meistgenutzten Wissensplattformen weltweit und vermittelt Wissen auf hohem Niveau – oft in einer akademischen Sprache. Doch wie können KI-Tools dabei helfen, die Texte verständlicher zu gestalten bzw. mehr Menschen zugänglich zu machen?
An diesem Themenabend wollen wir zusammen mit BineMan genau das herausfinden! KI-Tools bieten Unterstützung sowohl für Autoren als auch für Leser:
- Autoren könnten mithilfe von KI-Tools ihre Texte sprachlich verbessern. In unserem Themenabend möchten wir beispielhaft das Tool Wortliga vorstellen und testen, wie es dabei helfen kann, Entwürfe zu optimieren.
- Leser können ebenfalls von einer KI-Unterstützung profitieren, die komplexe Inhalte verständlicher vermittelt. Hierfür werfen wir einen Blick auf den Wiki-Bot, der Wikipedia-Inhalte vereinfacht und für eine breitere Zielgruppe aufbereitet.
Alle diese Tools sind nicht nur praktische Hilfsmittel – sie sind auch Inspiration, wie sich die Wikipedia ändern könnte. Seid dabei und entdeckt, wie KI dabei helfen kann, Wissen für alle zugänglicher zu machen - egal ob durch Wikipedia-Tools selbst oder durch externe Anbieter! Wir freuen uns auf einen inspirierenden Abend mit vielen spannenden Einblicken und Diskussionen.
Bitte melde Dich zum digitalen Themenabend auf der Seite WP:DTS an. Wünsche und Vorschläge für zukünftige Stammtische bitte auf meiner Diskussionsseite.--Salino01
Erinnerung: Am 5. November findet der „Einführungsworkshop Datenabfrage in Wikidata“ statt. Schon jetzt vormerken: am 16. Dezember gibt es eine Vorstellung der mobilen Wikipedia-Apps und am 18. Dezember unseren Jahresendstammtisch.
P.S.: Diese Nachricht wurde verteilt von --Salino01 (Diskussion) 11:13, 31. Okt. 2024 (CET)
Mit ChatGPT erstellte Artikel Werner Sobek AG und Gebäude R128
Ich hatte gestern Spaß, weil ich ein Python-Script geschrieben hatte (mit KI-Hilfe, I might add), das mir die ISBN-Angaben in Wikipedia auf formale Korrektheit überprüft (d.h. die Prüfsumme nachrechnet). Viele "falsche" ISBN sind aber solche ISBN, die konsequent vom Verlag verwendet wurden und auch in den Katalogen stehen, darum war meine Arbeit auf die falschen falschen Angaben beschränkt (Zahlendreher oder Verleser). Bei dieser Arbeit stieß ich auf Literaturangaben im Artikel Werner Sobek AG, die mich eine Weile aufgehalten haben, weil sie irgendwie plausibel wirkten, aber sich in keinem Katalog oder Online das eigentliche Werk finden lies. Stellt sich heraus: Die Artikel wurden mit ChatGPT erstellt, die Literaturangaben sind vermutlich ganz oder in Teilen halluziniert. Ich habe den Benutzer:Heudorf darauf hingewiesen, durch andere Benutzer veranlasst wurden LAs für die Artikel gestellt und ich glaube, dass das hier auch ein Fall von nicht hinreichend offengelegtem bezahltem Schreiben handelt. Aber das nur am Rande. Es war ein schöner Tag gestern, weil ich ISBN-Angaben korrigieren konnte, aber es waren frustrierende Zeiten gestern, als ich fiktiven Literaturangaben hinterhergerannt bin. Ich kann nur froh sein, dass ChatGPT zu doof ist, konsequent korrekte Prüfsummen für ISBN-Halluzinationen zu erfinden. (Dass die beiden Artikel mit ChatGPT erzeugt wurden, ist eine Behauptung des Autoren in der ersten Version des Artikels in der Zusammenfassung. Ich halte diese Angabe für plausibel) --Mathias Schindler (Diskussion) 20:03, 1. Nov. 2024 (CET)