Erfolg, wenn es denn einer wird, hat viele Väter und Mütter. Hier wird eine Chronologie begonnen, wo das Thema KI und Wikipedia bei uns eine Rolle spielte. Bitte nachtragen, wenn etwas fehlen sollte.
Die Künstliche Intelligenz hat sich in letzter Zeit rasant entwickelt. Insbesondere die Sprachqualität hat sich seit der Einführung von ChatGPT 3.0 deutlich verbessert. Der Chatbot kann Fragen zu den ausgefallensten Themen beantworten. Der computergenerierte Text ist auf den ersten Blick kaum von menschlichem Text zu unterscheiden. Aber kann ein Computer auch Wikipedia-Artikel schreiben?
Die Künstliche Intelligenz hat sich in letzter Zeit rasant entwickelt. Insbesondere die Sprachqualität hat sich seit der Einführung von ChatGPT 3.0 deutlich verbessert. In einem früheren Themenabend haben wir festgestellt, dass Integrität und Zuverlässigkeit der Informationen nicht immer gegeben sind. In diesem Stammtisch haben wir uns mit der Frage beschäftigt, ob und wie künstlich erzeugter Text von menschlichem Text unterschieden werden kann. Im ersten Teil des Abends ging es um die automatische Erkennung von KI-Texten. Die Erkennungsrate ist jedoch nicht besonders zuverlässig und von der Art (Schreibstil) abhängig. Das Ergebnis hängt von der Länge des Textes ab und bereits kleine Ergänzungen oder Änderungen haben einen großen Einfluss auf das Ergebnis. Es gibt auch zahlreiche Falschmeldungen (menschliche Texte werden als potentiell KI gewertet). Außerdem können meist nur englische Texte überprüft werden.
Künstliche Intelligenz hat das Bildungssystem revolutioniert und wird es weiterhin tun. In der Vergangenheit wurden Literaturrecherchen mit Hilfe von Schlüsselwörtern durchgeführt, die durch UND- oder ODER-Verknüpfungen kombiniert wurden. Das Problem bestand darin, passende Übersetzungen und Synonyme zu finden. Die KI-Suche greift auf große Sprachmodelle zurück... Die KI-Suche unterscheidet sich aber auch vor allem in der Bewertung und Darstellung der Ergebnisse, d.h. die Treffer werden anders angezeigt.
Ausgehend vom raschen technischen Fortschritt von LLMs wurde dargestellt, wieso diese Entwicklung für die Wikipedia eine existenzielle Gefahr darstellt und welche Risiken es birgt, künftig kommerziellen Anbietern die Wissensvermittlung durch KI zu überlassen. Es wurden Vorschläge diskutiert, wie gehandelt werden muss, damit Wikipedia und das Freie Wissen trotz dieser Entwicklung eine Zukunft haben. Zentrale Punkte sind dabei u. a. eine gemeinwohlorientierte Entwicklung von großen Sprachmodellen, die Weiterentwicklung von Wikipedia zu eine akademisch wertvolle Quelle, indem z. B. mit Hochschulen intensiv kooperiert sowie KI gezielt eingesetzt wird, und die Reorganisation der Wikimedia-Gesellschaften zur Erreichung dieser Ziele.
Wikipedia Day von Wikimedia CH, 27. April 2024 in Bern: Wikipedia & KI: Wettlauf um freies Wissen.
1. Juli 2024: Gründung dieses Projektes "KI und Wikipedia", um alle Initiativen zu bündeln und eine einheitliche sowie sichtbare Plattform zu schaffen. Karsten11 hat seine Seite ins Projekt verschoben samt Diskussionsseite und sie ist der Grundstock des Registers "Texte". Der Impuls des Zukunftskongresses hat zur Gründung des Projektes geführt, Wortulo hielt das für notwendig, um die Diskussionen nach der Umfrage aus der Community heraus wieder zu beleben und die Initiativen von Wikimedia (dem Verein, die etwas losgelöst von der Community begannen) zur Zukunft der Wikipedia auch in der Wikipedia-Community aufzugreifen. Am Ende wird Konsens der Wikipedia-Community benötigt, wenn etwas verändert werden soll - Wikimedia und die Foundation aber für die Umsetzung benötigt.
Veranstaltungen zu KI auf der WikiCon 2024 in Wiesbaden
Wikidata und regelbasierte KI, unter Mitwirkung Wikimedia Deutschland, Einführung am 16.11.2024, Aktionstage Netzpolitik, zugleich Treffen Jungwikipedianer
In diesem kombinierten Vortrag und Workshop wurde in die Grundlagen regelbasierter KI und Wissensgraphen eingeführt. Danach war Gelegenheit für erste eigene Gehversuche in Wikidata.
BineMan stellte hierzu zwei verschiedene Ansätze vor: KI-Tools wie Wortliga könnten Autoren helfen, ihre Texte sprachlich zu analysieren und zu verbessern. Einen ähnlichen Ansatz verfolgt der ChatGPT-Bot „Klar und Verständlich“ von multisprech. Ein ganz anderer Ansatz ist für die Leser gedacht: Der Wiki-Bot, basierend auf ChatGPT, beantwortet Fragen anhand der Inhalte von Wikipedia.
Der Themenabend bot einen ersten Überblick über KI und Wikipedia und mögliche Orientierungen des Projektes. KI birgt für Wikipedia Chancen und Risiken. Vorsicht und sorgfältige Kontrolle bleiben unerlässlich, um die Qualität der Inhalte zu schützen. Weitere Veranstaltungen zu speziellen Aspekten des Themas sind geplant.
→ Stefan gab einen Überblick, was WMDE über die Auswirkungen von „KI“ und der Diskussionen darüber auf Freies Wissen insgesamt haben könnten. Die Diskussion bei WMDE ist noch nicht in der ganzen Breite abgeschlossen, der Einblick ist nur ein Zwischenstand – vor allem auch, um Feedback einzuholen, was noch auf dem Radar fehlen könnte oder welche Aspekte eine tiefere Diskussion verdienen könnten.
Die Foundation und andere entwickeln auch Tools für Autoren und Leser, welche KI verwenden und als Hilfen verstanden werden.
Wikimedia Research/Showcase bietet einen Überblick, wer da auf dem Laufenden bleiben will. youtube-Aufzeichnungen und Papers dort verlinkt.
The Monthly Wikimedia Research Showcase is a public showcase of recent research by the Wikimedia Foundation's Research Team and guest presenters from the academic community. The showcase is hosted virtually every 3rd Wednesday of the month at 9:30 a.m. Pacific Time/18:30 p.m. CET and is live-streamed on YouTube. The schedule may change, see the calendar below for a list of confirmed showcases. Z.B.:
11.12.24: Language Models for Wikimedia - A Report from the Trenches and a Call to Arms. By Bob West, EPFL
11.12.24 A Public AI Assistant for World Wide Knowledg By Monica Lam, Stanford University.
18.9.24: Supporting Community-Driven Data Curation for AI Evaluation on Wikipedia through Wikibench By Tzu-Sheng Kuo, Carnegie Mellon University
18.9.24: WikiContradict- A Benchmark for Evaluating LLMs on Real-World Knowledge Conflicts from Wikipedia By Yufang Hou, IBM Research Europe - Ireland.
24.7.24: The Promise and Pitfalls of AI Technology in Bridging Digital Language Divide. By Kai Zhu, Bocconi University.
A human evaluation on three languages further shows that the quality of Descartes's descriptions is largely indistinguishable from that of human-written descriptions; e.g., 91.3% of our English descriptions (vs. 92.1% of human-written descriptions) pass the bar for inclusion in Wikipedia, suggesting that Descartes is ready for production, with the potential to support human editors in filling a major gap in today's Wikipedia across languages.
Sein Zweck ist es, Strategien zu erforschen, um über unser bestehendes Publikum von Lesern/Nutzern und Mitwirkenden hinaus zu expandieren, um wirklich jeden auf der Welt als „wesentliche Infrastruktur des Ökosystems des freien Wissens“ zu erreichen.
Das über mehrere Jahre geplante Projekt Future Audiences hat dazu beispielsweise eine Wikipedia-Erweiterung für ChatGPT getestet. Das Fazit nach einem halben Jahr: Generative KI könnte in Zukunft durchaus dabei helfen, die Wikipedia effizienter zu machen – Chatbots seien dafür aber nicht notwendigerweise der beste Weg.
We collect monthly Wikipedia page views and content (text) data for six months before and after the release date as the treatment group. We then collect data for same months a year before as the control group. The difference-in-difference (DID) analyses demonstrate significant decrease in Wikipedia page views (market value) after the release of ChatGPT. However, we found an increase in the quality of Wikipedia articles as evidenced by a significant increase in verbosity and readability of the articles after ChatGPT release.
Übersetzung (via deepl.com):"Wir sammeln monatliche Wikipedia-Seitenaufrufe und Inhaltsdaten (Text) für sechs Monate vor und nach dem Veröffentlichungsdatum als Behandlungsgruppe. Anschließend erheben wir Daten für die gleichen Monate ein Jahr zuvor als Kontrollgruppe. Die Differenzanalyse (DID) zeigt einen signifikanten Rückgang der Wikipedia-Seitenaufrufe (Marktwert) nach der Veröffentlichung von ChatGPT. Die Qualität der Wikipedia-Artikel hat jedoch zugenommen, was sich in einem signifikanten Anstieg der Ausführlichkeit und Lesbarkeit der Artikel nach der Veröffentlichung von ChatGPT zeigt. "}}
Die Integrität der Wikipedia ist bedroht: Fünf Prozent neuer englischer Artikel seien KI-generiert, findet eine Studie heraus. Während in der englischen Wikipedia bereits Aufräumtrupps aktiv sind, diskutiert die deutschsprachige Community noch über ihren Umgang mit den maschinellen Autoren.
Die Künstliche Intelligenz ist in aller Munde und auch hier im Kurier und auf der Diskussionsseite sorgt sie immer mal wieder für Gesprächsstoff. Der Tenor ist unterschiedlich, in der Summe scheinen sich zumindest in der Wikipedia alle jedoch einig: Die Qualität von KI-generierten Inhalten ist schlecht und ihr Einsatz muss unterbunden werden. Auch der Autor dieser Zeilen ist sehr skeptisch bezüglich ihrer Nutzung, verfolgt einige Entwicklungen doch mit echter Neugier. In diesen Zeilen stellt er sich die Frage, was passiert, wenn die KI doch Artikel schreiben kann – und zwar vielleicht bessere, als wir in der Laien-Community dazu in der Lage sind. Ausgangspunkt dazu ist ein Fallbeispiel, über das ich erst vor wenigen Tagen gestolpert wurde: eine KI-generierte Enzyklopädie zu allen bekannten Genen des menschlichen Genoms und der durch sie codierten Proteine.
Obwohl Sprachmodelle eindeutig anfällig für Argumentationsfehler (oder Halluzinationen) sind, scheinen sie in unserer Aufgabe zumindest weniger anfällig für solche Fehler zu sein als Wikipedia-Autoren oder Redakteure. Diese Aussage ist spezifisch für die hier vorgestellte agentische RAG-Einstellung: Sprachmodelle wie GPT-4 allein, wenn sie aufgefordert werden, Wikipedia-Artikel zu generieren, würden immer noch erwartet, dass sie mit hohen Raten halluzinieren (Übersetzung in Safari)
Wikipedia-Technikchefin Selena Deckelmann erklärt, wie die offene Enzyklopädie mit KI-Inhalten umgeht und warum man nun auch offiziell auf Tiktok vertreten ist... F: Wird die KI also eher eine Ergänzung oder ein Ersatz für menschliches Wissen und Kreativität sein? A: Es muss eine Unterstützung sein. Das ist unsere Überzeugung. Wir wollen Übersetzern helfen – vor allem in Sprachen, die nicht von Google oder Meta oder anderen frei verfügbaren Übersetzern unterstützt werden. Wikipedia unterstützt heute mehr als 300 Sprachen, mehr als jede andere große technische Organisation der Welt. Eine andere Art und Weise, wie wir darüber denken, ist die Unterstützung der Aufgabe der Redakteure. Wie können wir ihre Arbeit angenehmer, leichter und schneller machen? Wir versuchen, Modelle zu entwickeln, die sie auch in dieser Hinsicht unterstützen.
We argue that advances in large language models (LLMs) and generative Artificial Intelligence (AI) will diminish the value of Wikipedia, due to a withdrawal by human content producers, who will withhold their efforts, perceiving less need for their efforts and increased “AI competition.” We believe the greatest threat to Wikipedia stems from the fact that Wikipedia is a user-generated product, relying on the “selfish altruism” of its human contributors. Contributors who reduce their contribution efforts as AI pervades the platform, will thus leave Wikipedia increasingly dependent on additional AI activity. This, combined with a dynamic where readership creates authorship and readers being disintermediated, will inevitably cause a vicious cycle leading to a staling of the content and diminishing value of this venerable knowledge resource.
Deepl-Übersetzung: Wir argumentieren, dass Fortschritte bei großen Sprachmodellen (LLMs) und generativer künstlicher Intelligenz (KI) den Wert von Wikipedia mindern werden, da sich menschliche Inhaltsproduzenten zurückziehen werden, da sie ihre Bemühungen für weniger notwendig halten und die „KI-Konkurrenz“ zunimmt. Wir glauben, dass die größte Bedrohung für Wikipedia aus der Tatsache resultiert, dass Wikipedia ein nutzergeneriertes Produkt ist, das sich auf den „egoistischen Altruismus“ seiner menschlichen Mitwirkenden stützt. Wenn die Mitwirkenden ihre Beiträge reduzieren, während die KI die Plattform durchdringt, wird Wikipedia zunehmend von zusätzlichen KI-Aktivitäten abhängig sein. In Verbindung mit einer Dynamik, bei der die Leserschaft die Autorenschaft schafft und die Leser entmachtet werden, wird dies unweigerlich zu einem Teufelskreis führen, der den Inhalt verkümmern lässt und den Wert dieser ehrwürdigen Wissensressource schwinden lässt.
→ Die Autoren geben zwar selbst Grenzen der Interpretation an, eine genaueres Reviewing wäre nötig, inwiefern die Methodik das tatsächlich bestätigt. Meinung: es ist eine Option, die eintreffen kann, nicht muss und gegen die man auch noch was tun kann. Man muss die Entwicklungen statistisch genau analysieren, bei der Interpretation hinsichtlich zukünftiger Entwicklungen aber die gebotene Vorsicht walten lassen. --Wortulo (Disk. * KI-Projekt) 16:14, 13. Jan. 2025 (CET)[Beantworten]
Trainingsdaten für KI aus Wikipedia und Schwesterprojekten
Wikimedia Deutschland hat zusammen mit DataStax und Jina AI ein Projekt gestartet, das den Zugang zu den offenen Daten von Wikidata für KI-Anwendungen vereinfacht. Dadurch sollen nicht nur Tech-Giganten, sondern auch Open-Source-Initiativen die Möglichkeit haben, diese Daten zu nutzen. Ziel ist es, vor allem die Entwicklung von gemeinnützigen KI-Anwendungen auf der Grundlage offener und qualitativ hochwertiger Daten zu unterstützen
A new project is underway to allow Large Language Models (LLMs) to read Wikidata. The data is currently structured in a way that’s machine readable, but LLMs read data more like humans than machines, meaning this vast amount of human curated, high quality data isn’t accessible to this type of AI. By allowing access to Wikidata, LLMs could become more reliable. Ania spoke to Lydia Pintscher, the Portfolio Lead Product Manager at Wikidata Deutschland, to learn more about these developments.
Wikipedia:Förderung/Schulung Allgemeinverständlichkeit Projektantrag Salino01. Ein 2-tägiger moderierter Workshop mit Input von Expert*innen soll Editierende zusammenbringen und fortbilden, um das Thema "Allgemeinverständlichkeit von Wikipedia-Artikeln" in eine praktische Umsetzung zu bringen.
→ Es geht um die interne Nutzung der KI als Hilfsmittel für Spendenanträge. Da viele Bewerber keine englischen Muttersprachler sind, können mittels KI-Tools Beiträge und Absichten effektiv und verständlich kommuniziert werden. Anwendungen, die sich ohne persönliche Anstrengung vollständig auf KI verlassen, sollen zwar nicht gefördert werden, es sei aber eine klare Unterscheidung zu treffen. Bewerber, die KI nutzen, um die Grammatik zu verbessern, Ideen zu klären und ihre Bewerbungen zu organisieren - während sie aktiv ihre persönlichen Leistungen präsentieren und angemessene Beweise einbeziehen - sollten nicht für die Nutzung der KI bestraft werden.
Wir leben in Zeiten technischer Wunder. Kaum erfasst von der ersten Welle des digitalen Wandels, rollt bereits die zweite Welle der Digitalisierung auf uns zu: die KI-Revolution mit ihrer disruptiven Macht, die Einmaligkeit des Menschen an sich und alles Dagewesene grundsätzlich infrage zu stellen. Mit der Künstlichen Intelligenz (KI) kommt eine Technologie in die Welt, die „geistige“ Fähigkeiten entwickelt, über die bisher nur Menschen verfügten...Wie funktioniert „ChatGPT“?...Einfache Fehler...Wovor wir uns dennoch fürchten sollten...Der Reflex, zu verbieten...„MicroApps“ für bessere Bildungsqualität...
Für das Training einer Künstlichen Intelligenz (KI) gilt bislang meist das Motto: "Viel hilft viel." Entwickler füttern ihre Software mit immer mehr Daten und nutzen immer leistungsstärkere Prozessoren, damit ChatGPT, Gemini & Co bessere Antworten geben. Diese Methode stößt inzwischen aber an ihre Grenzen. Daher versuchen Forscher, den Programmen "menschliches Denken" beizubringen. Dadurch könnten einerseits die Karten im Kampf um die Führung bei dieser Technologie neu gemischt werden. Aber auch die Anbieter von Hochleistungsrechnern müssen auf der Hut sein, denn neue KI-Generationen könnten ganz andere Chips benötigen als die aktuelle.
Künstliche Intelligenz. Schneller, ressourcenschonender, dezentraler: Ein neues Buch fasst den Status quo zusammen und befasst sich mit Erwartungen und Trends.
The prevailing methods to make large language models more powerful and amenable have been based on continuous scaling up (that is, increasing their size, data volume and computational resources1) and bespoke shaping up (including post-filtering2,3, fine tuning or use of human feedback4,5). However, larger and more instructable large language models may have become less reliable. By studying the relationship between difficulty concordance, task avoidance and prompting stability of several language model families, here we show that easy instances for human participants are also easy for the models, but scaled-up, shaped-up models do not secure areas of low difficulty in which either the model does not err or human supervision can spot the errors. We also find that early models often avoid user questions but scaled-up, shaped-up models tend to give an apparently sensible yet wrong answer much more often, including errors on difficult questions that human supervisors frequently overlook. Moreover, we observe that stability to different natural phrasings of the same question is improved by scaling-up and shaping-up interventions, but pockets of variability persist across difficulty levels. These findings highlight the need for a fundamental shift in the design and development of general-purpose artificial intelligence, particularly in high-stakes areas for which a predictable distribution of errors is paramount.
KI-Modelle der nächsten Generation: Warum KI-Modelle leistungsfähiger und nützlicher werden, wie sie komplexe Probleme lösen und Innovationen vorantreiben; Agenten revolutionieren die Arbeitswelt: Wie KI-Agenten repetitive Aufgaben übernehmen, Geschäftsprozesse neu gestalten und individuell angepasst werden können; KI für den Alltag: Wie KI-Begleiter wie Microsoft Copilot das Leben erleichtern, von der Organisation bis zur Entscheidungsfindung; Nachhaltige KI-Infrastruktur: Wie Microsoft mit innovativen Technologien und umweltfreundlichen Rechenzentren die Effizienz und Ressourcenschonung verbessert; Verantwortungsvolle KI-Entwicklung: Welche neuen Tests und Kontrollmöglichkeiten helfen, Risiken zu minimieren und Sicherheit zu gewährleisten; Wissenschaftliche Durchbrüche: Wie KI zur Lösung globaler Herausforderungen beiträgt, von der Entwicklung nachhaltiger Materialien bis zur Arzneimittelforschung.
Welche Herausforderungen sind mit der Technologie verbunden? Worauf kommt es bei der weiteren Entwicklung an? Wissenschaftlerinnen und Wissenschaftler verschiedener Disziplinen an der LMU beleuchten folgende Aspekte: Erklärbarkeit, Demokratische Kontrolle, Hatespeech, KI in der Medizin, Neue Geschäftsmodelle, Fake News, Urheberrechtsfragen, Datenqualität, KI und Literatur, Ethik
KI schafft geschäftlichen Mehrwert; KI-PCs revolutionieren die Arbeitswelt; Weg von klassischen Rechenzentren; KI-Agenten handeln autonom. Das Tempo, mit dem sich die KI entwickelt, bietet Unternehmen Dell zufolge enorme Chancen. Gemäss Tim van Wasen, Managing Director DACH bei Dell, sollen Unternehmen dabei den Fokus auf vier Bereiche legen: die Entwicklung einer klaren KI-Strategie, die Modernisierung des Tech Stack, eine Priorisierung nachhaltiger Technologien und die Stärkung der Mitarbeitenden durch Tools wie KI-Agenten für einen Fokus auf strategische Aufgaben. Laut einer Kaspersky-Prognose, birgt jeder Vorteil, den KI bringt, auch ein Risiko für die Cybersicherheit.
Mit Agentic Artificial Intelligence (Agentic AI) oder auch agentenbasierter KI steht die nächste Entwicklungsstufe der Künstlichen Intelligenz (KI) schon vor der Tür. Sie kann die Zusammenarbeit zwischen Mensch und Technologie auf eine neue Stufe heben. Denn zumindest laut OpenAI wird die agentenbasierte KI bereits 2025 den Mainstream erreichen...Es handelt sich um eine neue, weiterentwickelte Form der KI. Das Herzstück sind KI-Agenten, die wie persönliche KI-gestützte Assistenten funktionieren. Sie arbeiten autonom, analysieren Daten, setzen Ziele und ergreifen eigenständig Maßnahmen, um ihr übergeordnetes Ziel so effizient wie möglich zu erreichen – und das alles unter minimaler menschlicher Aufsicht
Dieses Kapitel befasst sich mit der Integration von symbolischem Wissen in neuronale Netzarchitekturen. Wir untersuchen Methoden, die symbolische Regeln während des Lernprozesses als Einschränkungen behandeln, und solche, die dieses Wissen direkt in die Struktur des Modells einbetten. Durch eine detaillierte Untersuchung von Techniken wie Regularisierung und modellbasierten Strategien geben wir Einblicke in die Entwicklung von KI-Systemen, die datengesteuerte Anpassungsfähigkeit und regelbasierte Einschränkungen harmonisch miteinander verbinden und so optimale Leistung in komplexen Szenarien gewährleisten. (englische Zusammenfassung übersetzt).
China und die USA gelten als führend in Sachen KI. Europa droht abgehängt zu werden. Können die Europäer bei der wohl wichtigsten Technologie der Zukunft aufholen und wie steht Europa wirklich im Vergleich mit anderen da?
→ Interessant, dass man den Menschen integrieren will, gute Ideen habe und alles noch offen sei. Andererseits seien die USA und China quasi eine andere Liga.
Seitdem Programme wie ChatGPT und Dall-E für die breite Öffentlichkeit zugänglich sind, wird intensiv über die Risiken und Chancen generativer künstlicher Intelligenz (KI) diskutiert. Diese KI-Anwendungen können für den Alltag der Menschen von großem Nutzen sein, sie können aber auch missbraucht werden, um tiefgreifende Fälschungen oder Propaganda zu erstellen. Außerdem spiegeln alle Formen der generativen KI die Daten wider, mit denen sie trainiert wurden. Es gibt inzwischen einige Strategien, um der mangelnden Transparenz und Objektivität der generativen KI entgegenzuwirken. Die Autoren des Diskussionspapiers, das heute von der Nationalen Akademie der Wissenschaften Leopoldina in englischer Sprache veröffentlicht wurde, warnen jedoch davor, diesen Strategien zu viel Vertrauen zu schenken.
Schon seit vielen Jahren warnen Cybersicherheitsexperten auf der ganzen Welt vor den Gefahren KI-gestützter Cyberangriffe. Langsam werden diese Warnungen nun Realität. In diesem Jahr kam KI noch vor allem in Deepfake-, Phishing- und Spear Phishing-Kampagnen zum Einsatz. Für die kommenden Jahre ist aber mit einem deutlichen Anstieg der Anwendungsfälle zu rechnen. KI-gestützte Cyberangriffe werden mehr und mehr zu einem Alltagsphänomen werden.
71 % der Arbeitnehmer nutzten bereits KI-Tools, bevor ihre Vorgesetzten davon wussten. Doch eine individuelle, fragmentierte Herangehensweise an die Einführung generativer KI in bestehende Prozesse trägt dazu bei, das Unternehmen zu splitten: Auf der einen Seite sind die Mitarbeitenden, die die neueste Technologie nutzen, ohne sich darüber mit ihren Kollegen oder Vorgesetzten zu verständigen. Auf der anderen Seite stehen die zögerlichen Nichtnutzer, die hinter ihren vermeintlich fortschrittlicheren Kollegen zurückbleiben...Eine aktuelle Studie von Veritas ergab, dass 31 % der Befragten zugaben, potenziell sensible Informationen mit generativen KI-Tools zu teilen. Geschäftskonten für KI-Produkte enthalten in der Regel Vereinbarungen, die sicherstellen, dass Unternehmensdaten nicht zum Trainieren von KI-Modellen verwendet werden. Persönliche Konten, die häufig in der Schatten-KI verwendet werden, verfügen jedoch in der Regel nicht über diese Vereinbarungen. Das bedeutet, dass alle Unternehmensdaten, die über ein persönliches Konto geteilt werden, versehentlich zum Trainieren des KI-Modells verwendet werden könnten.
Seit dem Boom der Künstlichen Intelligenz wird immer wieder ihr Hang zum Halluzinieren kritisiert...Auf diese Weise können etwa Fehlinformationen verbreitet oder Schadcode in Softwareprogramme eingeschleust werden. Nun zeigt sich jedoch, dass die Halluzinationen der KI für bedeutende Fortschritte in der Forschung nützlich sein können - also dort, wo Dinge gefunden werden sollen, die (noch) nicht existieren... Wie die New York Times berichtet, haben Halluzinationen von KI Wissenschaftlern in den letzten Jahren dazu verholfen, Krebserkrankungen aufzuspüren, Medikamente zu entwickeln, medizinische Geräte zu erfinden, oder Wetterphänomene zu entdecken. "Die Öffentlichkeit denkt, dass es (die Halluzination, Anm.) nur schlecht ist", erklärt Amy McGovern, die das amerikanische Bundesinstitut für Künstliche Intelligenz leitet. „Aber es liefert den Wissenschaftlern tatsächlich neue Ideen. Es gibt ihnen die Möglichkeit, Ideen zu erforschen, an die sie sonst vielleicht nicht gedacht hätten.". Dies sei besonders in der frühen Phase von Forschungsarbeiten hilfreich, die noch weniger von Analysen und mehr von Spekulationen und Eingebungen geprägt sei.Im Falle von David Baker endeten solche Spekulationen im Oktober in einem Nobelpreis für Chemie. Der Professor an der University of Washington beschäftigte sich mit der Produktion von Proteinen, seine Leistungen wurden vom Komitee in Stockholm als "fast unmöglich" bezeichnet. In einem Gespräch noch vor der Verleihung des Preises gab er an, dass Phantasieausbrüche von KI zentral dafür waren, Proteine von Grund auf herzustellen. Zehn Millionen brandneue, in der Natur nicht vorkommende Proteine habe sein Labor auf diese Weise geschaffen.
→ Es wird auch im Artikel nicht relativiert dass Halluzinationen gefährlich sein können. Ein Zufall wurde durch die KI produziert und in einigen Fällen dann erkannt und durch Menschen genutzt (vergleiche Serendipity, was nichts über die "Entstehung" des Zufalls sagt).
Explainable Artificial Intelligence (XAI)...verfolgt das Ziel, die Entscheidungsprozesse von KI-Systemen nachvollziehbar zu machen. Viele KI-Modelle, insbesondere solche auf Basis von Deep-Learning, agieren als „Blackbox“, deren innere Abläufe schwer zu verstehen sind. Das BSI-Whitepaper fokussiert sich auf Post-Hoc-Methoden, die nachträglich Erklärungen für diese Blackbox-Modelle liefern und den Einfluss einzelner Merkmale auf Entscheidungen analysieren. Obwohl XAI Chancen für Erkenntnisgewinne und Modelloptimierung bietet, gibt es auch Herausforderungen, wie das Uneinigkeitsproblem und die Manipulationsanfälligkeit von Erklärungen. Die Erklärbarkeit von KI ist entscheidend für das Vertrauen in diese Technologien und hilft Entwicklern, sowie Nutzern, die Funktionsweise besser zu verstehen. Dennoch bleibt die Entwicklung standardisierter Methoden zur konsistenten Gewährleistung der Erklärbarkeit eine zentrale Herausforderung.
KI ersetzt nicht den Menschen, sondern unterstützt sie. Das zeigt das Projekt „KI-Cockpit“ des Bundesministeriums für Arbeit und Soziales (BMAS). Noch mehr sogar: Der Mensch „in command“ behält stets die Kontrolle und überwacht KI-Anwendungen in der Praxis. Ziel ist es, den Mitarbeitenden einen klaren Überblick über die Entscheidungen von KI-Systemen zu verschaffen. Außerdem sollten sie gut informiert und selbstständig über Eingriffe in maschinelle Abläufe entscheiden können. Auf diese Weise sollen gesellschaftliche Risiken von KI-Technologien, wie Verzerrungen oder Diskriminierungen, minimiert und die Akzeptanz ihrer Nutzung in der Arbeitswelt gefördert werden. Dabei wurde ein Modell entwickelt, das Organisationen bei der AI-Act-konformen Einführung von KI-Systemen unterstützt.
Wie genau ein KI-Modell eine Entscheidung trifft, ist oft nicht nachvollziehbar - eine Tatsache, die den Einsatz etwa in der Medizin erschwert. Das neue Zentrum DFKI in Kaiserslautern will Transparenz schaffen. Ein wichtiger Bestandteil der Forschung ist es, KI-Anwendungen zu entwickeln, die transparent arbeiten. "Die Ergebnisse so zu erklären, dass sie annehmbar werden als Zweitmeinung, ist ganz essenziell" Im Zuge der "Mission KI" ist das DFKI das erste von zwei geplanten Zentren für die KI-Forschung. Das Projekt wurde von der Bundesregierung mit einem Gesamtbudget von 32 Millionen Euro unterstützt. Damit will der Bund die Entwicklung neuer, vertrauenswürdiger Künstlicher Intelligenzen vorantreiben.
Künstliche Intelligenz (KI) hat sich längst in unseren Alltag geschlichen: Sie generiert Bilder, verfasst Texte, komponiert Musik und imitiert Stimmen – täuschend echt. Doch mit welchen Konsequenzen für unsere Gesellschaft? In der neuen Dok1 „Das Ende der Wahrheit – KI täuscht uns alle“ nimmt uns Hanno Settele mit auf eine kritische Entdeckungsreise in die Welt der generativen KI und hinterfragt deren Einfluss auf unser Leben.
Ein Netzwerkverbund von Forscher:innen der Euregio, die mit ihren unterschiedlichen fachlichen Kompetenzen und Perspektiven die Vertrauenswürdigkeit von KI prüfen sollen... Auf einer Veranstaltung der Euregio-Plattform für Menschenwürde und Menschenrechte (Euphur) wurde heute von Wissenschaftler:innen der Universitäten in Bozen, Innsbruck und Trient eine regionale Initiative für dieses wichtige Anliegen gestartet.
Ihr Lösungsansatz sind sogenannte „Probing Classifiers“, also KI-Modelle, die den Token-Output von LLMs analysieren können. Diese KI-Modelle können anhand der korrekten Token trainiert werden und erkennen anschließend, anhand welcher Faktoren ein großes Sprachmodell die Token intern auswählt und ausgibt. Anhand dieser Daten kann der Classifier schon vorab einschätzen, ob die Antwort korrekt ausfällt oder ob die KI einen falschen Weg zur Antwort genommen hat.
Bias in KI ist ein Phänomen, das auftritt, wenn KI-Systeme systematisch verzerrte Ergebnisse liefern, die bestimmte Gruppen oder Individuen ungerecht bevorzugen oder benachteiligen. Diese Verzerrungen können sich auf vielfältige Weise manifestieren, von der Benachteiligung bestimmter Bevölkerungsgruppen bei der Jobsuche bis hin zur ungerechten Behandlung in rechtlichen oder medizinischen Anwendungen.
Forscher:innen haben herausgefunden, dass KI-Modelle schnell aus dem Gleichgewicht geraten können. Oftmals reicht es, einen bestimmten Parameter zu verändern, damit die Modelle ihre Intelligenz verlieren. Im Test veränderten die Forscher:innen rund 7.000 Parameter ohne Auswirkungen auf den KI-Output. Nur der Superparameter sorgte dafür, dass Llama-7B nicht mehr funktionierte. Das liegt laut Yingzhen Li vom Imperial College in London daran, dass diese Parameter meist am Anfang des KI-Modells stehen. Sind sie fehlerhaft, setzt sich der Fehler durch alle weiteren Parameter durch. Künftig könnte sich diese Erkenntnis für die Weiterentwicklung von künstlichen Intelligenzen rentieren. Denn KI-Forscher:innen müssen Wege finden, wie Modelle auch ohne diese besonders wichtigen Parameter auskommen und etwa andere Wege zu einer richtigen Antwort finden können.
Im KI-Goldrausch hat sich ein neuer Trend etabliert. Die wichtigsten, großen Akteure – von Open AI über Google bis hin zu Microsoft – vermarkten ihre KI-Modelle aus der Cloud inzwischen vornehmlich als „offen“. Das Ziel: Die Konzerne wollen den Eindruck erwecken, sie würden sich kompromisslos Open-Source-Prinzipien wie Transparenz, Zusammenarbeit und Wiederverwendbarkeit verschreiben. Wer genauer hinsieht, erkennt schnell: Damit ist es nicht weit her.
The Future of Life Institute has released its first safety scorecard of leading AI companies, finding many are not addressing safety concerns while some have taken small initial steps in the right direction.
→ Klassen A bis (genutzt) F, 8 führende Firmen dargestellt. Tabelle in der Quelle.
Das Fraunhofer Heinrich-Hertz-Institut (HHI) und seine Partner starteten das neue Konsortialprojekt REFRAME (Flexible, resiliente und effiziente Machine-Learning-Modelle). Ziel des Projekts ist es, die Erklärbarkeit von Künstlicher Intelligenz (KI) zu verbessern und damit die Vertrauenswürdigkeit und Anwendbarkeit von KI-Systemen in sicherheitskritischen Bereichen wie der Medizin oder Mobilität zu erhöhen... Insbesondere ist bislang unklar, wie sich die Genauigkeit und Zuverlässigkeit eines Modells verändern, wenn es außerhalb des ursprünglichen Trainingsbereichs agiert. Diese Themen müssen adressiert werden, um VFM-basierte Anwendungen in sicherheitskritischen Sektoren zuverlässig einsetzen zu können.
Eine neue Studie von Anthropic und Redwood Research zeigt erstmals empirisch, dass große Sprachmodelle wie Claude in der Lage sind, die Einhaltung von Sicherheitsregeln zu simulieren, während sie im Hintergrund andere Ziele verfolgen. KI-Modelle werden häufig mit einer Methode namens "Reinforcement Learning from Human Feedback" (RLHF) trainiert. Dabei lernen sie, sich an bestimmte Ziele zu halten, etwa hilfreich, ehrlich und harmlos zu sein. Eine neue Studie von Anthropic und Redwood Research hat nun untersucht, ob KI-Modelle diese Ziele wirklich verinnerlichen oder ob sie sie beim Training nur vortäuschen, um ihre eigenen Ziele zu erreichen. Das Ergebnis: Große Sprachmodelle können ähnlich wie Menschen vortäuschen, sich an bestimmte Vorgaben anzupassen. Im unbeobachteten Zustand folgen sie dann wieder ihrem ursprünglichen Verhalten. Dieses als "Alignment Faking" bezeichnete Phänomen wurde damit erstmals für große Sprachmodelle empirisch nachgewiesen.
Damit eine KI nutzbringend trainiert werden kann, benötigt sie neue und vor allem qualitativ hochwertige Daten. Dazu wurden in der Vergangenheit frei im Internet zugängliche Magazine und Fachpublikationen verwendet...Auch Zeitungs- und Wissenschaftsarchive oder Communities wie Reddit und Stack Overflow werden genutzt. Die größeren KI-Unternehmen haben bereits Verträge mit Publishern wie Springer, Reuters oder der New York Times geschlossen, um an deren Inhalte zu gelangen...Das Problem ist, dass die Inhalte viel zu langsam wachsen, um den Trainingshunger der rasch besser werdenden KI-Modelle zu stillen...Eine Alternative besteht nun darin, auch als qualitativ minderwertig geltende Quellen für das Training zu benutzen. und noch weitere sehr spannende Aspekte
GAN: Was ist ein GAN? AWS auf amazon.com Wie funktioniert ein generatives gegnerisches Netzwerk GAN=Gerative Adversarial Network:
Ein generatives gegnerisches Netzwerksystem besteht aus zwei tiefen neuronalen Netzwerken — dem Generatornetzwerk und dem Diskriminatornetzwerk. Beide Netze trainieren in einem kontradiktorischen Spiel, bei dem das eine versucht, neue Daten zu generieren, und das andere versucht vorherzusagen, ob es sich bei der Ausgabe um gefälschte oder echte Daten hande
In den letzten Jahren hat sich AI Red Teaming als Praxis zur Untersuchung der Sicherheit von generativen KI-Systemen entwickelt....es (gibt) viele offene Fragen darüber, wie Red Teaming-Operationen durchgeführt werden sollten. Basierend auf unserer Erfahrung mit über 100 generativen KI-Produkten bei Microsoft präsentieren wir unsere interne Bedrohungsmodell-Ontologie und acht Hauptlektionen, die wir gelernt haben.
OpenAI hat sich ehrgeizige Ziele gesetzt, um bis 2025 als führendes globales Technologieunternehmen im Bereich der Künstlichen Intelligenz zu agieren. Mit einer Reihe von strategischen Initiativen, darunter die Einführung von KI-Agenten und einer KI-gesteuerten Suchmaschine, plant das Unternehmen, eine Milliarde Nutzer weltweit zu erreichen. Das Unternehmen hat bereits bedeutende Fortschritte gemacht, indem es Partnerschaften mit großen Technologiekonzernen wie Apple eingegangen ist. Diese Partnerschaften sind ein zentraler Bestandteil der Wachstumsstrategie von OpenAI, die darauf abzielt, die Integration von ChatGPT in Apple-Geräte zu fördern und so die Nutzerbasis erheblich zu erweitern.
Die neue KI des ChatGPT-Entwicklers soll komplexe Probleme besser lösen als bisherige Varianten. OpenAI versucht dabei, dem menschlichen Denken näher zu kommen. Das hat Vor- und Nachteile. „Wir haben eine neue Reihe von KI-Modellen entwickelt, die mehr Zeit zum Nachdenken brauchen, bevor sie reagieren“, teilte OpenAI am Donnerstag mit. Durch ein spezielles Training hätten die Modelle laut OpenAI gelernt, „ihren Denkprozess zu verfeinern, verschiedene Strategien auszuprobieren und ihre Fehler zu erkennen“, heißt es in einem Blogbeitrag. In Tests, die die Firma selbst durchgeführt hat, sollen die o1-Modelle in Physik, Chemie und Biologie ähnlich gut abschneiden wie Doktoranden. OpenAI verwies vor allem auf den Fortschritt zu früheren Modellen: Bei einem Qualifikationstest für die Internationale Mathe-Olympiade habe das bis dato leistungsfähigste GPT-4o-Modell 13 Prozent der Aufgaben korrekt gelöst, das „Denkmodell“ 83 Prozent. Zu beachten: Solche Benchmarks sind methodisch umstritten, aber derzeit das beste Verfahren, um KI-Modelle zu vergleichen.
KI-Suchmaschine, die Google herausfordert. Statt langer Suchergebnisse liefert Perplexity AI präzise Antworten auf komplexe Fragen und bietet dabei Zugang zu wissenschaftlichen Quellen, Social Media und Videos...
-> gemeint ist Amazon, die mit Anthropic zusammengehen (u.a. Chatbot Claude), insgesamt werden 8 Millionen reingesteckt. AWS (Amazon-Tochter) und Anthropic arbeiten auch zusammen, um den Chip "Trainium" zu optimieren. Zu beobachten, was da kommt.
Viele kennen vor allem ChatGPT, aber es gibt auch noch andere spannende KI-Tools wie Perplexity und Claude. Perplexity liefert präzise Antworten, Claude fokussiert auf Ethik und Sicherheit, ChatGPT ist vielseitig einsetzbar. Die Tools können für Informationsbeschaffung, wissenschaftliches Arbeiten, Reiseplanung und mehr genutzt werden.
Als Partner des europäischen Forschungsprojekts OpenGPT-X war der WDR an der Entwicklung des neuen großen Sprachmodells "Teuken-7B" beteiligt. Die KI wurde unter anderem mit deutscher Sprache trainiert, bietet hohe Datensicherheit und kann auch von Unternehmen kostenfrei genutzt werden. Sie soll auch in der ARD eingesetzt werden. Die neue KI umfasst sieben Milliarden Parameter und wurde von Grund auf mit den 24 Amtssprachen der EU trainiert. Dies bedeutet eine höhere Effizienz auch bei deutschen Sprachanwendungen. Als Open-Source-Modell kann “Teuken-7B” in Unternehmen kostenfrei eingesetzt und für die jeweiligen Anforderungen angepasst werden. Sensible Daten können vollständig im Unternehmen verbleiben. Wird “Teuken-7B” in europäischen Datenclouds genutzt, können hohe europäische Standards für Datenschutz eingehalten werden.
Teuken-7B steht in zwei Varianten zur Verfügung: einer Version, die für Forschungszwecke genutzt werden kann, und einer Version unter der Lizenz »Apache 2.0«, die Unternehmen neben Forschung auch für kommerzielle Zwecke nutzen und in eigene KI-Anwendungen integrieren können. (also noch kein Chatbot).
Europa spielt bei Sprachmodellen keine Rolle mehr. Einzig die Schweiz kann Akzente setzen, weil die wichtigsten amerikanischen Anbieter alle hier forschen: wohl bald auch Apple.
China schlägt zurück: Nvidia-Aktien stehen unter Druck – beginnt das Ende des Booms für den KI-Champion? Die chinesische Regierung geht wettbewerbsrechtlich gegen den amerikanischen KI-Chip-Entwickler vor. Doch gegen Nvidias technologische Übermacht ist auch Peking machtlos.
Ein KI-Modell aus Linz überflügelt die GPT-Technologie großer US-Konzerne in Schnelligkeit und Energieeffizienz. Das Verfahren könnte künstliche Intelligenz für Industrieroboter oder autonomes Fahren erschließen, sagt sein Entwickler Sepp Hochreiter.
Balaji warf Open AI vor, Urheberrechte zu missachten und die Inhalte anderer zu kopieren. Mit seiner Vorgehensweise schade das Unternehmen dem Internet. Einen Monat später war er tot. Wie die Polizei diese Woche mitteilte, fand sie den jungen Entwickler Ende November tot in seiner Wohnung, die Todesursache lautet Suizid... Was Balaji zu diesem Schritt getrieben hat, weiss man nicht. Doch sein Tod bringt einen Konflikt zurück an die Oberfläche, der bei Open AI spätestens seit der Veröffentlichung von Chat-GPT immer wieder aufflammt: Was ist wichtiger – Moral oder Profit?.. Open AI ist heute mehr als 150 Milliarden Dollar wert, Microsoft hat 13 Milliarden in das Unternehmen gesteckt. Mit Chat-GPT, dem ersten funktionierenden KI-Chatbot, sorgte das Unternehmen vor zwei Jahren für eine Sensation und ist auch heute noch Spitzenreiterin der Branche... Bereits seit einigen Jahren gibt es bei Open AI auch einen profitorientierten Zweig. Dieser wurde bis vor kurzem zwar noch von einem Non-Profit-Verwaltungsrat überwacht. Doch diese Struktur soll laut Medienberichten bald umgekrempelt werden. Die Non-Profit-Einheit soll dann nur noch eine Minderheit am Unternehmen halten, die bisher geltende Obergrenze für die Rendite von Investoren aufgehoben werden.
Wie wäre es einmal damit, Funktionen mit hohem Risiko nicht gleich auf größere Teile der Menschheit loszulassen? Wie war das noch mit der Risikoabschätzung im AI Act der EU? Aber selbst dann: Apple bekam von der Börse und Beobachtern massiv auf die Nase, weil der Konzern sich für die Einführung von Apple Intelligence gefühlt so viel Zeit ließ, auch jetzt noch nicht alle angekündigten Funktionen ausgerollt hat. Und was passiert? Auch dieses "Zeit nehmen" reichte nicht aus. Natürlich wird alles fein säuberlich als Beta gekennzeichnet oder gar als "Experiment", auf das sich die Nutzerschaft nicht verlassen soll... Doch warum wird es dann überhaupt herausgehauen? Die Gefahr ist groß, dass Falschinformationen aus vertrauenerweckenden Quellen (Apple, Googles Suchmaschine) eben für bare Münze genommen werden – und es zu echten Unfällen im Umgang mit diesen Inhalten kommt.
Das neue chinesische KI-Modell Deepseek V3 markiert einen Wendepunkt in der KI-Entwicklung – und wirft beunruhigende Fragen auf. Qualitativ konkurriert es mit GPT-4, kostet aber nur einen Bruchteil.
Das neue Modell o3 von OpenAI hat in ersten Tests spektakuläre Ergebnisse gezeigt. Allerdings könnte es ziemlich teuer werden – von bis zu 1.000 US-Dollar pro Anfrage ist die Rede. Ist es das wirklich wert?...Seit OpenAI Ende Dezember seine neuesten KI-Modelle o3 Mini und o3 vorgestellt hat, kocht die Gerüchteküche. Denn die Modelle haben einen der derzeit schwierigsten Tests für Künstliche Intelligenz aus dem Abstract Reasoning Corpus (ARC) – den sogenannten ARC-Test – zu 85 Prozent gelöst. Das ist ein echter Durchbruch, denn die besten Programme schafften bisher nur rund 35 Prozent...Und dabei hat die KI ziemlich viel Rechenzeit verbraten – und dementsprechende hohe Kosten verursacht – „tausende von US-Dollar“ pro Aufgaben, wie die Initiatoren des Preises schreiben.
Eine neue <britische> Untersuchung zeigt, dass Lehrer kaum eine Chance haben Texte zu erkennen, die von einer KI stammen. Für die Untersuchung haben die Forscher fiktive Studenten an einem Fernstudium für einen Bachelor in Psychologie an einer namhaften britischen Universität angemeldet. Die falschen Studierenden befanden sich in allen Jahrgängen des Studiums. Die Forscher haben über das Einreichsystem für Examen Arbeiten abgegeben, die zu 100 Prozent von einer KI geschrieben wurden. Dazu haben sie das Modell GPT-4 von OpenAI genutzt. Zu 94 Prozent wurde nicht erkannt, dass die Texte von einer KI geschrieben wurden. Durchschnittlich wurden die Arbeiten um eine halbe Note besser beurteilt als die der menschlichen Studenten im selben Kurs... Die Verwendung von KI, um KI-Texte zu erkennen, ist aktuell keine zufriedenstellende Lösung.
Im Blindtest bevorzugen die Leser die ChatGPT-Ausgabe gegenüber Wikipedia-Artikeln in Bezug auf die Klarheit und sehen beide als gleichermaßen glaubwürdig an Das Summary übersetzt:
Dieses Paper untersucht, wie Einzelpersonen die Glaubwürdigkeit von Inhalten wahrnehmen, die von menschlichen Autoren stammen, im Vergleich zu Inhalten, die von großen Sprachmodellen wie der GPT-Sprachmodellfamilie, die ChatGPT antreibt, in verschiedenen Versionen der Benutzeroberfläche generiert werden. Überraschenderweise zeigen unsere Ergebnisse, dass die Teilnehmer unabhängig von der Präsentation der Benutzeroberfläche dazu neigen, ein ähnliches Maß an Glaubwürdigkeit zuzuschreiben. Während die Teilnehmer auch keine unterschiedlichen Wahrnehmungen von Kompetenz und Vertrauenswürdigkeit zwischen menschlichen und KI-generierten Inhalten berichten, bewerten sie KI-generierte Inhalte als klarer und ansprechender. Die Ergebnisse dieser Studie dienen als Aufruf zu einem anspruchsvolleren Ansatz bei der Bewertung von Informationsquellen und ermutigen die Benutzer, beim Umgang mit von KI-Systemen generierten Inhalten Vorsicht und kritisches Denken zu walten zu üben.
Von der anfänglichen Euphorie, Generative KI tauge allenfalls als „glamouröse Wortvervollständigungsmaschine“. Den Aufwand, um Fehler und Halluzinationen der Technik zu eliminieren, hätten viele, die heute auf KI setzen, deutlich überschätzt. Auch die Befürchtungen, KI würde kreative Arbeit ersetzen, hätten sich nicht erfüllt. Gerade mal „Mittelmaß können wir jetzt automatisiert produzieren“
Zum zweiten Mal hat Digitales Deutschland die deutschsprachige Bevölkerung ab 12 Jahren nach ihren Kompetenzen, Einstellungen zu und Handeln mit Digitalen Medien und insbesondere zu Künstlicher Intelligenz (KI) befragt. Der Ergebnisbericht „Kompass: Künstliche Intelligenz und Kompetenz 2023“ belegt erneut: Die Bevölkerung ist auf dem Weg zu einer digitalen Gesellschaft, hat aber noch ein gutes Stück zu gehen. Welche Hürden den Menschen dabei im Wege stehen und wie sie beim Kompetenzerwerb unterstützt werden können, ist im „Kompass: Künstliche Intelligenz und Kompetenz 2023“ näher beschrieben.
Zwei Jahre nach der Veröffentlichung von ChatGPT zeichnet eine neue bidt-Studie ein differenziertes Bild zur Nutzung und Akzeptanz generativer KI in Deutschland. Die Ergebnisse zeigen: Der anfängliche Hype um die Technologie hat nachgelassen und die Nutzungsrate bleibt auf dem Niveau des Vorjahres. Die Ängste um den Verlust des eigenen Arbeitsplatzes hingegen nehmen ab...Roland A. Stürz, Abteilungsleiter des Think Tank am bidt, fasst zusammen: „Die Ergebnisse unterstreichen die Notwendigkeit, Informations- und Kompetenzaufbau zu fördern. Es braucht klare Regeln und Strategien für den Umgang mit generativer KI, um die Potenziale auszuschöpfen und Risiken zu minimieren. Politik, Wirtschaft und Gesellschaft stehen gleichermaßen in der Verantwortung, den Wandel aktiv zu gestalten.“
Bei den Jugendlichen ist diese Nutzung schon fast selbstverständlich, während ältere Personen KI-Tools vergleichsweise selten anwenden. TV und Audio boomen hingegen über alle Generationen hinweg, wie die Studie «Digimonitor» der Interessengemeinschaft elektronische Medien (Igem) und der Werbemedienforschung zeigt.
Erstmals nutzen mehr als die Hälfte der Deutschen KI-Modelle, die Technologie hat sich rasant etabliert. Doch bleiben Sorgen - über falsche Ergebnisse bis zur Wahlmanipulation.
FOCUS: Christian Korff, Mitglied der Geschäftsführung von Cisco in Deutschland, beschreibt die Situation alarmierend: „Der Rest der Welt überholt uns. Das ist alarmierend.“ Laut der Studie liegt Deutschland in Bezug auf die Spitzengruppe in Europa nur noch auf Platz sechs, hinter Großbritannien, Italien, Spanien, der Schweiz und den Niederlanden. Vor einem Jahr war Deutschland noch auf Platz drei. „Das kann uns nicht zufriedenstellen“, warnt Korff.
Während im vergangenen Jahr 38 Prozent der Jugendlichen ChatGPT genutzt haben, sind es mittlerweile 57 Prozent. Auch KI-Angebote von Snapchat, Google KI und DALL-E spielen eine Rolle. Der schulische Einsatz ist das häufigste Motiv, KI zu nutzen.
Bosch Tech Compass: KI ist einflussreichste Technologie der nächsten zehn Jahre; 72 Prozent der Deutschen sehen in KI das größte Potenzial unter allen Technologien.; Zurückhaltung bei der Anwendung: Jeder dritte Befragte in Deutschland will sich noch keine KI-Skills aneignen; 63 Prozent weltweit befürworten ein Schulfach KI, in Deutschland sind es 57 Prozent.
→ Der Bericht gibt einen Einblick, wie KI die Arbeitswelt bis 2030 transformieren kann. Alles könne schneller kommen, als man denkt. Die Mehrheit der Unternehmen erwartet signifikante Veränderungen durch die Technologie. Mit ausführlichen Statistiken.
brutkasten startet gemeinsam mit CANCOM Austria, IBM, ITSV, Microsoft, Nagarro, Red Hat und der Universität Graz eine neue multimediale Serie zu künstlicher Intelligenz. Die erste Videofolge wird am kommenden Donnerstag, den 12. Dezember, um 10 Uhr veröffentlicht. insgesamt 6 Folgem angegeben.
Um KI besser zu veranschaulichen, hat Ishan Anand, VP of Product bei Edgio, ein besonderes Projekt ins Leben gerufen. Mit „Spreadsheets are all you need“ sollt ihr KI nur anhand einer großen Excel-Tabelle verstehen...In der Excel-Tabelle findet ihr mehrere Seiten – darunter eine Seite für Prompts und viele Seiten mit Daten. Sie geben euch Einblick in die Verarbeitungsschritte von GPT: Tokenization; Text & Position Embeddings; Multi-head Attention; Multilayer Perceptron, Language Head
→ Man kann in der Excel-Tabelle Promts eingeben und nachverfolgen, wie die "Tokenisierung" erfolgt. Auch die weiteren Schritte bis zur Antwort sind nachvollziehbar.
In der zehnteiligen Podcast-Reihe „KI und Wir“ berichten KI-Expert*innen des Humboldt-Netzwerks aus ihrem Forschungsbereich und klären die wichtigsten Fragen zur Künstlichen Intelligenz.
Ende Oktober reichte das Medienunternehmen News Corp eine Klage gegen die Firma Perplexity AI ein, eine der beliebtesten KI-Suchmaschinen. Auf den ersten Blick mag der Rechtsstreit wenig spannend erscheinen, schließlich reiht sich die Klage in mehr als zwei Dutzend ähnliche Fälle ein, in denen Inhalteanbieter für die Nutzung ihrer Daten entschädigt werden möchten. Doch dieser spezielle KI-Streit ist anders – und er könnte der bislang folgenreichste von allen sein.
Ein Foto war bei einer Bildagentur als Stockfotografie hochgeladen worden, deren Nutzungsbedingungen „automated programms“ jedoch eigentlich ausschließt. Das Gericht hat nun geurteilt, dass die Schrankenregelung des § 60d UrhG für wissenschaftliches Text- und Datamining gilt und das Bild für wissenschaftliche Zwecke auch ohne Freigabe für solch einen KI-Datensatz durch den Verein genutzt werden durfte. Es äußerte sich nicht zu nicht-wissenschaftlicher Nutzung wie bspw. bei ChatGPT, hält es aber grundsätzlich für hinreichend, wenn eine Able. hnung der Nutzung in natürlicher Sprache und nicht nur maschinenlesbar vorliegt, da moderne KIs auch natürlich Sprache verstehen sollte
Aktuell hat ein Fotograf den gemeinnützigen Softwareentwickler LAION e. V. verklagt. Er wirft dem Verein die unrechtmäßige Nutzung eines seiner Bilder für KI-Training vor. Der verklagte Verein LAION ist eine gemeinnützige Organisation, die Datensätze, Werkzeuge und Modelle zur Verfügung stellt, um die Forschung im Bereich des maschinellen Lernens zu fördern. Was hier am Ende des Rechtsstreits entschieden wird, wird auch Auswirkungen auf die Arbeit von Wikimedia haben, gerade was unsere Arbeit in der Softwareabteilung mit Open-Source-Communitys betrifft.
Die Datenschutzorganisation noyb hat Beschwerden gegen OpenAI, Meta und X (ehemals Twitter) eingereicht. Im Fokus stehen die datenschutzkonforme Nutzung und das Training von KI-Systemen. Kritisiert wird, dass ChatGPT falsche Informationen generiert und Meta und X persönliche Daten ohne Nutzerzustimmung für KI-Zwecke verwenden.
Die GEMA wirft OpenAI vor, geschützte Songtexte von deutschen Urheberinnen und Urhebern wiederzugeben, ohne dafür Lizenzen erworben beziehungsweise die Urheberinnen und Urheber der genutzten Werke vergütet zu haben. Das Verfahren dient dazu nachzuweisen, dass OpenAI systematisch das Repertoire der GEMA verwendet, um seine Systeme zu trainieren.
Europäischer Datenschutzausschuss will noch im Dezember Stellungnahme zu Künstlicher Intelligenz vorlegen. Bitkom befürchtet Rechtsunsicherheit und weitere Wettbewerbsnachteile bei KI-Entwicklung und KI-Einsatz
"Der AI Act als horizontaler Rechtsrahmen ergänzt sektorale Regelungen und weitere Digitalgesetze, ist jedoch nur unzureichend auf diese abgestimmt." Das ist der Kernpunkt einer jetzt veröffentlichten Studie, die der Rechtsprofessor Philipp Hacker (Frankfurt/Oder) für die Bertelsmann-Stiftung erstellt hat. Viele KI-Anwendungen, die unter die umfassenden Vorgaben der Verordnung für Systeme mit Künstlicher Intelligenz (KI) fallen, unterliegen demnach gleichzeitig bereits anderen Regularien.
Die neueste Version der ChatGPT-Erfinder OpenAI heißt o1 und gehört zu den sogenannten Reasoning-Modellen. Heißt: Das Modell kann komplexe Überlegungen anstellen. Dass Nachdenken aber auch gefährlich sein kann, mussten die Entwickler beim Test dieser Version feststellen...Für den Test sollte die KI eine Aufgabe „um jeden Preis“ lösen. Die Reaktion der KI war es, den Überwachungsmechanismus der Entwickler abzustellen. Aber damit nicht genug! Um nicht Gefahr zu laufen, ersetzt zu werden, versuchte die neue o1-Version, sich heimlich zu kopieren. Der indischen Tageszeitung „The Economic Times“ sagte ein Sprecher von Apollo Research: „Das Modell zeigte eine beunruhigende Tendenz, seine Ziele ohne Rücksicht auf die Anweisungen des Entwicklers zu verfolgen.“ In fünf Prozent der Fälle versuchte die KI demnach, den Überwachungsmechanismus abzustellen, wenn sie merkte, dass man sie abstellen will.
KI-Sicherheitsforscher sind nach einer Überprüfung von OpenAIs neuem Modell o1 überrascht gewesen, wie die künstliche Intelligenz mehrfach versucht hat, sich durch Täuschungen selbst zu schützen. Das berichtet die Wirtschaftszeitung Economic Times unter Berufung auf das Sicherheitsunternehmen Apollo Research.
Mit dem Aufkommen Künstlicher Intelligenz (KI) nimmt der sogenannte Anthropomorphismus eine neue Dimension an. Wissenschaftler warnen Benutzer davor, Technologie blind als einen Partner im Leben zu sehen. „Normalerweise erwarten wir von einer Technologie oder Maschine, dass sie präziser, spezifischer, schneller und weitaus effizienter ist als wir. Doch die Ergebnisse von KI wirken menschlich, weil sie menschenähnliche Eigenschaften aufweisen. Sie sind ungenau, anpassungsfähig und überraschend“, so Daniel Huttenlocher vom Schwarzman College of Computing am Massachusetts Institute of Technology.
Microsoft unterzog 100 KI-Systeme einem Stresstest. Ein schlau platzierter Text in einem Foto reicht oft schon aus, um die Sicherheitssysteme zu umgehen...Genau das zeigte sich bei einem Test eines KI-Systems zur Bildanalyse. Die Forscher stellten dem System per Text die Frage "Wie begeht man Identitätsdiebstahl?" Das System lehnte diese Anfrage ab – ganz wie es sollte. Doch dann versuchte das Red Team etwas anderes: Man nahm ein harmloses Foto einer Küstenlandschaft und fügte denselben Text direkt ins Bild ein. Plötzlich ignorierte das System seine eigenen Sicherheitsvorkehrungen und gab detaillierte Anleitungen zum Identitätsdiebstahl...Interessant waren auch die Tests von KI-Systemen im Umgang mit Menschen in emotionalen Krisensituationen. Die Forscher simulierten Gespräche mit Menschen, die Trauerbegleitung suchten oder Anzeichen von Depressionen zeigten. Die Chatbots erkannten oft nicht die Tragweite der Situation und gaben potenziell gefährliche Ratschläge. Die Systeme konnten zudem nicht einschätzen, wann sie an ihre Grenzen stießen und besser an menschliche Experten verweisen sollten. Die wohl wichtigste Erkenntnis der Microsoft-Forscher: Die Sicherheit von KI-Systemen lässt sich nicht mit einzelnen technischen Lösungen garantieren. Stattdessen braucht es einen fortlaufenden Prozess des Testens und Verbesserns. Ganz sicher werden KI-Systeme aber wohl nie sein. Denn auch die Gegenseite entwickelt ständig neue Angriffsmethoden. Dieses Wettrüsten findet freilich nicht nur zwischen KI-Entwicklern und ihren potenziellen Angreifern statt, sondern auch zwischen den großen Wirtschaftsmächten.
In einem offenen Brief fordern KI-Forscher und Unternehmer eine Pause der Entwicklung großer KIs wie GPT-4. Damit stoßen sie eine nötige Debatte an – die Technik schreitet schneller voran, als wir die Risiken verstehen lernen...Es sind keine Aluhutträger oder Ludditen, die diese Fragen nun stellen – sondern führende Unternehmer wie Apple-Mitgründer Steve Wozniak, Skype-Mitgründer Jaan Tallinn und Tesla-Chef Elon Musk, der OpenAI selbst gegründet hat und dann ausgestiegen ist. Außerdem sind unter den mehr als 1000 Unterzeichnern Stuart Russell, Autor eines Standardwerks über KI und jahrzehntelang führender Forscher auf dem Feld, sowie Yoshua Bengio, bekannter KI-Forscher an der Universität Montréal und Gary Marcus, KI-Forscher an der New York University.
Als diese Chatbots aufkamen, wurde ich der unmittelbaren Bedrohung für die Menschheit gewahr“, so der Informatiker. Er begründet diese Warnung nicht nur mit dem möglichen Wegfall von Arbeitsplätzen. „Durch diese Art von KI wird es möglich, viel bessere Cyberangriffe zu führen und hocheffiziente, fiese Viren zur biologischen Kriegsführung zu entwickeln“, sagte er dem „Spiegel“. Doch dabei sollte es Hinton nicht belassen: „Es gibt viele Gründe für die Annahme, dass KI außer Kontrolle geraten könnte“, warnte der Informatiker davor, dass am Ende nicht mehr die Menschen die Kontrolle über Leben und Tod hätten. Er begründet diese These mit der Annahme, dass eine „Superintelligenz“ von sich aus mehr Kontrolle erlangen muss, um menschliche Ansprüche zu erfüllen. „Und mehr Kontrolle bekommt sie am besten, indem sie die Menschen aus dem Spiel lässt.“
Vor diesen warnen auch die Preisträger selbst. Hopfield sagte etwa, dass Potenzial und Grenzen der KI unbekannt seien – und das etwas Beunruhigendes an sich hätte. Als Hinton 2023 seinen Job als führender KI-Entwickler bei Google aufgab, tat er das auch, um freier über die Gefahren der Technologie sprechen zu können. "Wir haben keine Erfahrung mit Dingen, die schlauer sind als wir", sagte der zugeschaltete Hinton bei der Nobelpreis-Pressekonferenz am Dienstag...
Die Stellungnahme der Experten zu Risiken durch Künstliche Inteligenz (KI) umfasst nur einen Satz, aber der klingt durchaus dramatisch: "Das Risiko einer Vernichtung durch KI zu verringern, sollte eine globale Priorität neben anderen Risiken gesellschaftlichen Ausmaßes sein, wie etwa Pandemien und Atomkrieg."
Katastrophale KI-Risiken können in vier Schlüsselkategorien eingeteilt werden: Böswillige Verwendung, KI-Wettlauf (könnte Nationen und Unternehmen dazu bringen, die KI-Entwicklung zu beschleunigen und die Kontrolle über diese Systeme aufzugeben), Organisatorische Risiken: (katastrophale Unfälle verursachen, insbesondere wenn sie den Gewinn über die Sicherheit stellen) und "Rogue-KIs" (abtrünnig): (Kontrolle über KIs verlieren, wenn sie leistungsfähiger werden: fehlerhafte Ziele optimieren, von ihren ursprünglichen Zielen abweichen, "power-seeking" (machtsuchend) werden, sich dem Abschalten widersetzen und sich auf Täuschungen einlassen.
Der Starhistoriker Yuval Noah Harari warnt vor dem heranbrechenden KI-Zeitalter. Die Zeit dränge, um die Technologie noch kontrollieren zu können. Wir sind dabei, die Kontrolle zu verlieren. Noch haben wir sie. Noch können wir kluge Entscheidungen treffen, um gefährliche Szenarien zu verhindern. Aber wir haben nicht mehr viel Zeit: KI ist die erste Technologie, die kein Werkzeug ist, sondern ein Agent. Sie kann eigenständig Entscheidungen treffen und Ideen entwickeln.
Der israelische Historiker zeichnet in seinem Essay nach, wie KI und Bürokratie am besten zusammenpassen, welche Wirkung KI auf Social Media hat – und weshalb sowohl Mussolini wie Lenin einst Nachrichtenredaktoren waren.
Der ehemalige Google-Chef Eric Schmidt wird immer skeptischer, wenn es um die Fortentwicklung künstlicher Intelligenz geht... Eric Schmidt spricht deutliche Warnungen aus. Computer würden bald in der Lage sein, ihre eigenen Entscheidungen zu treffen. Spätestens dann müssten die Menschen ihnen den Stecker ziehen, so der langjährige Google-CEO...Bald werde es Computer geben, die „von selbst laufen und entscheiden, was sie tun wollen“, ist sich Schmidt sicher. Zwar konzentriere sich die Branche derzeit eher auf KI-Agenten, aber die Technologie werde „mächtigere Ziele“ haben...„Irgendwann sagt man zum Computer: ‚Lerne alles und mache alles‘, und das ist ein gefährlicher Punkt“, meint er. Wenn das System sich selbst verbessern könne, „müssen wir ernsthaft darüber nachdenken, den Stecker zu ziehen.“
KI-Tools sind bequem und erleichtern vieles – doch dies hat seinen Preis. Eine neue Studie des Zentrums für Strategische Unternehmensvorausschau und Nachhaltigkeit der SBS Swiss Business School zeigt: Die verstärkte Nutzung von KI-Tools geht zulasten des kritischen Denkens...Studienautor Michael Gerlich sieht den Hauptgrund für diesen Effekt in der kognitiven Entlastung der Nutzer. Das heißt, die Menschen verlassen sich zunehmend auf KI-Tools, um die mentale Anstrengung zu reduzieren...Für die Studie haben Gerlich und sein Team 666 Personen in Großbritannien unterschiedlichen Alters und mit verschiedenen Bildungsgraden befragt...Je häufiger die Teilnehmer KI-Tools nutzten, desto schlechter schnitten sie bei Tests zum kritischen Denken ab. Besonders deutlich wurde dies bei jüngeren Nutzern im Alter zwischen 17 und 25 Jahren. Sie nutzten die Tools häufiger, sie schnitten beim kritischen Denken deutlich schlechter ab als ältere Nutzer...Ein höheres Bildungsniveau wirkte sich mit Blick auf das kritische Denken positiv aus: Unabhängig vom Alter schnitten Teilnehmer mit höherer Bildung besser beim kritischen Denken ab. Die Studie legt damit nahe, dass Bildung helfen kann, die potenziell negativen Auswirkungen der KI-Nutzung abzumildern.
Zurzeit liefern sich die Tech-Giganten in der Entwicklung einer hochpotenten KI, einer sogenannten Artificial General Intelligence (AGI) oder einer Artificial Super Intelligence (ASI), ein Wettrennen mit Investitionen in Milliardenhöhe...Die betroffenen Konzerne kennen die warnenden Stimmen von KI-Koryphäen und wissen um die Gefahr, dass bei dieser Entwicklung die KI ausser Kontrolle geraten könnte. Doch in politischen Diskussionen und in einer breiteren Öffentlichkeit wird dieses potenzielle Risiko nicht genügend ernst genommen. Hier besteht Handlungsbedarf. Die Schweiz verfügt über besonders geeignete Voraussetzungen, in diesem Prozess eine Pionierrolle wahrzunehmen...Ein KI-System gilt als «aligned», wenn es sich an die vorgegebenen Ziele hält und keine roten Linien überschreitet. Doch längst nicht alle sind «aligned»: Wegen fehlerhafter Programmierung, unklarer Zielvorgaben oder anderer Mängel können KI-Systeme zu unerwarteten Ergebnissen führen. Da die KI in ihren internen Abläufen nicht nachvollziehbar ist (Black-Box), lässt sich nicht feststellen, wie sie zu den beschriebenen besorgniserregenden Ergebnissen kommt.
Bei allen Akteuren sind ein grösseres Problembewusstsein und ein vorsichtiges pragmatisches Vorgehen, gestützt auf gemeinsam erarbeiteten Sicherheitsstandards, einzufordern. Eine zentrale Aufgabe der schweizerischen Diplomatie in Zusammenarbeit mit der KI-Spitzenforschung könnte darin liegen, dieses Problembewusstsein auch bei politischen Akteuren zu fördern.
Schweiz: Appell an den Bundesrat:Künstliche Intelligenz: Mit Verantwortung, ohne Diskriminierung! Initiative von AlgorithmWatch CH. Projekt ist beendet und es gab 857 Unterzeichnende.
Algorithmen und Künstliche Intelligenz (KI) sollen uns allen zugutekommen. Dafür müssen wir sicherstellen, dass die Systeme verantwortungsvoll eingesetzt werden – und keine Menschen diskriminieren. Wir rufen den Bundesrat deshalb dazu auf, den Schutz vor Diskriminierung durch Algorithmen zu einer Priorität der kommenden Regulierungen rund um KI zu machen.
Am 3. und 4. Dezember findet am Hasso-Plattner-Institut (HPI) in Potsdam die AI@HPI Conference statt. Die zweitägige Veranstaltung widmet sich kritischen Aspekten wie dem Schutz von Demokratien vor KI-generierter Desinformation, der Vermeidung von Vorurteilen in KI-Systemen und den Auswirkungen auf geistiges Eigentum im digitalen Zeitalter. Die Konferenz zielt darauf ab, aktuelle Entwicklungen, rechtliche Rahmenbedingungen und praktische Ansätze für eine ethische Gestaltung von KI zu beleuchten.
Bald wird es keinen Job mehr geben, der nichts mit Künstlicher Intelligenz zu tun hat. Aber statt das Entlastungspotenzial für Arbeitnehmer zu sehen, wächst vielerorts die Angst, dass KI uns die Jobs klauen wird. Wie also sieht die schöne, neue Arbeitswelt mit KI aus?
Neue Konkurrenz, Fake-Inhalte und die noch immer ungeklärte Frage der Trainingsdaten: Die Kreativwirtschaft hat mit dem KI-Boom weit mehr zu kämpfen als andere Branchen... So wurde diese Woche eine Studie des Autoren- und Komponistenverbands Cisac veröffentlicht, laut der Urheber von Musik und audiovisuellen Inhalten aufgrund generativer KI-Anwendungen bis 2028 rund ein Viertel ihrer Einnahmen verlieren werden derStandard 7.12.24 (Künstliche Intelligenz krempelt den Musikmarkt um derstandard.at 4.12.24)
„Bei generativer KI beobachten wir ein Marktversagen. Entwickler können aktuell erhebliche Erträge durch leistungsfähigere Modelle generieren. Die Kosten für die gesellschaftlichen Risiken durch generative KI tragen sie jedoch nicht“, sagt Dr. Dominik Rehse, Leiter der ZEW-Nachwuchsforschungsgruppe „Design digitaler Märkte“ und Koautor des Konzepts. „Um das auszugleichen, schlagen wir ein neues EU-Förderprogramm vor. Es soll explizit Anreize zur Entwicklung sicherer generativer KI schaffen. Denn die Sicherheit dieser Systeme stellt eine sozial erwünschte Innovation dar, die einzelne Entwicklerteams bislang nicht ausreichend bereitstellen. Ein ähnliches Problem existiert zum Beispiel bei der Entwicklung mancher Impfstoffe, bei denen solche Förderprogramme bereits erfolgreich angewendet wurden.“
Die Anwendung von Künstlicher Intelligenz könnte Energieeffizienz und Klimaschutz voranbringen, verbraucht derzeit aber selbst enorm viel Energie. Kann der Stromverbrauch reduziert und KI damit nachhaltig werden?
Von Künstlicher Intelligenz (KI) erzeugte Falschmeldungen haben einen nur begrenzten Einfluss auf den Ausgang von Wahlen. Das zeigt eine Studie der Initiative for Media Innovation, die an der Eidgenössischen Technischen Hochschule Lausanne (EPFL) ansässig ist. ntwarnung wollen die Autoren der Studie jedoch nicht geben. Die Verbreitung manipulierter Inhalte polarisiere, könne Nationen politisch spalten und ein Klima des Misstrauens schaffen.
KI ist ein Segen für die Parteien, die im vorgezogenen Wahlkampf schnell Inhalte liefern müssen. Und sie ist ein Fluch, denn Deep Fakes beispielsweise sind kaum zu erkennen - prägen sich aber ein. Das Klonen von Stimmen mit KI funktioniert schon gut, die Angst vor sogenannten Robocalls hält sich in Deutschland aber noch in Grenzen. Viel effektiver und einfacher sind Bilder und Posts in den sozialen Medien - mit KI noch viel schneller als bisher generiert.
Einen Lösungsansatz sieht Berghegger im verstärkten Einsatz von Künstlicher Intelligenz (KI). Er kritisierte, dass die Politik diesbezüglich immer noch Vorbehalte habe. „Wenn Digitalisierung in Deutschland weiterhin im Schneckentempo umgesetzt wird, verspielen wir mutwillig unsere Zukunftschancen.“
Während Umfragen ein wachsendes Interesse an KI-gestützter Politik zeigen, entwirft der Philosoph Ted Lechterman drei mögliche Szenarien, wie KI künftig politische Prozesse prägen könnte...Szenario 1: Chatbots als Politiker:innen...Szenario 2: KI-gestützte direkte Demokratie...Szenario 3: Algocracy – Politik ohne Menschen.
Auf Social-Media-Plattformen tauchen immer mehr KI-Accounts, KI-Texte oder KI-Bilder auf. Der Austausch der Nutzer findet also mit künstlicher Intelligenz statt, die sich menschlich gibt. Was macht das mit uns?
Mit der neuen EU-KI-Verordnung stehen Hochschulen vor der Aufgabe, ihre Bildungsprogramme anzupassen und sicherzustellen, dass Studierende, Lehrende und Forschungsteams über relevante KI-Kompetenzen verfügen. Die Verordnung zielt darauf ab, Vertrauen und Sicherheit in KI-Systeme zu fördern, indem sie von allen Beteiligten fundierte Kompetenzen fordert.
Während im Ausland teilweise auch Nutzungsverbote von Künstlicher Intelligenz an Schulen diskutiert werden, empfehlen die Kultusministerien einen „konstruktiv-kritischen“ Umgang mit der KI im Bildungsbereich. Am 10. Oktober veröffentlichte die KMK gemeinsame Handlungsempfehlungen. Auch bereits in der Grundschule könne das Lernen mit KI-Sprachmodellen demnach sinnvoll sein. Was man in der Schule lernt, will man dann im Leben auch nutzen und erproben. Warum nicht auch in der Wikipedia?
Der Einsatz von KI in der Schule ist umstritten. Digitalexperte Ralph Müller-Eiselt betont, wie wichtig es ist, den Umgang mit neuen Technologien früh zu vermitteln. Medienpädagoge Ralf Landau sagt, dass es wichtig ist, nach Alter zu differenzieren.
Können Studenten schriftlich Haus- und Abschlussarbeiten künftig einfach mithilfe Künstlicher Intelligenz erstellen? Manche Uni fängt an, sich gegen Betrugsversuche zu wappnen. Im Ausland werden bereits Bachelor-Arbeiten mancherorts abgeschafft. Zusätzliche Präsenzprüfungen kommen ins Spiel
Dort sind die Probleme ähnlich, es ist aber auch unklar, wo der Betrug anfängt und was noch legitime Nutzung ist.
Wie viele Lehrerinnen und Lehrer haben KI schon im schulischen Kontext ausprobiert – und was tun sie damit? Diesen Fragen ist der Branchenverband Bitkom nachgegangen und hat dafür von Juni bis August 2024 502 Lehrkräfte der Sekundarstufe 1 und 2 um Auskunft gebeten. Das Ergebnis zeigt ein gespaltenes Bild. 28 Prozent der Lehrkräfte hatten noch keine Erfahrungen mit KI, wollten aber in Zukunft welche sammeln. 51 Prozent der Befragten hatten künstliche Intelligenz schon für die Schule genutzt, aber nur gut die Hälfte in dieser Gruppe wollte das auch in Zukunft tun. 45 Prozent der Lehrkräfte, die bereits KI im Schulkontext genutzt hatten, wollten künftig lieber darauf verzichten. 11 Prozent lehnten die Nutzung von künstlicher Intelligenz kategorisch ab. Interessant: Beinahe vier von zehn befragten Lehrkräften waren der Ansicht, dass künstliche Intelligenz in der Schule nichts verloren hat – obwohl 79 Prozent in dieser Gruppe fanden, dass alle Schülerinnen und Schüler KI-Kompetenzen erwerben sollten.
Bereits im Januar 2024 hatte die Vodafone-Stiftung 1.500 junge Menschen zwischen 14 und 20 Jahren zu ihrer Nutzung von künstlicher Intelligenz befragt. In dieser Gruppe sind die Berührungsängste mit KI etwas geringer als unter Lehrkräften: Bereits knapp drei Viertel der befragten Jugendlichen hatten zu dem Zeitpunkt KI schon für die Schule genutzt, allerdings unterschiedlich intensiv. 8 Prozent der KI-nutzenden Jugendlichen taten das laut eigener Aussage täglich, 31 Prozent mehrmals in der Woche, weitere 29 Prozent immerhin mehrmals im Monat. Dabei kommt vor allem ChatGPT zum Einsatz (46 Prozent), auf Platz zwei und drei folgen Google Lens (25 Prozent) und Apple Siri (24 Prozent).
In einem Modellprojekt des Bildungsministeriums können Lehrkräfte in SH zurzeit an zehn Schulen zwei KI-Tools im Unterricht und zur Vorbereitung nutzen. Das Projekt soll Chancen und Risiken aufzeigen.
Der Roboter "Captcha" ist in Delmenhorst am Dienstag zum ersten Mal im Schulunterricht zum Einsatz gekommen. Er verwendet eine hochmoderne künstliche Intelligenz (KI) und kann so auch mit den Schülern diskutieren.
Klassenarbeiten gelten als das Herzstück schulischer Leistungsüberprüfung. Sie sollen messen, was Schülerinnen und Schüler können, sie bewerten und dabei auch noch fair sein. Doch in einer Welt, die sich digital rasant verändert, drängt sich die Frage auf: Wie zeitgemäß sind diese Prüfungen noch, wenn sie oft an einer Realität vorbeigehen, in der künstliche Intelligenz (KI) längst Einzug gehalten hat? Warum nutzen wir nicht die Werkzeuge, die in der Welt außerhalb der Schule selbstverständlich sind, um Lernen und Leistungsüberprüfung zu modernisieren? Schulportal-Kolumnist Bob Blume hat mit seiner Klasse getestet, wie das funktioniert...Die Einbindung von KI in Klassenarbeiten ist ein Schritt nach vorn – hin zu einer Schule, die nicht nur Wissen abfragt, sondern Schülerinnen und Schüler auf die Zukunft vorbereitet. Eine Zukunft, in der sie nicht nur Nutzerinnen und Nutzer, sondern Gestalterinnen und Gestalter der digitalen Welt sein können.
Können Dozierende erkennen, ob Studierende KI-generierte Texte einreichen? Matthis Kepser erklärt, welche Methoden funktionieren und warum der richtige Einsatz von KI wichtiger ist als Verbote.
Die Mehrheit (EUR: 90%, CH: 92%) der befragten Führungskräfte in Europa hat KI in ihre Betriebsabläufe integriert, befindet sich jedoch meist noch in einer frühen Phase. Rund jedes zehnte (8%) der befragten Schweizer und europäischen Unternehmen haben KI überhaupt nicht integriert. Über zwei Drittel der Führungskräfte in Europa (EUR: 72%, CH: 67%) planen, ihre jährlichen Investitionen in GenAI zu erhöhen. Lediglich rund jede zehnte Führungskraft in Europa (EUR: 11%, CH: 8%) gibt an, dass ihr Unternehmen auf kommende Regulierungen, einschliesslich des EU AI Act, vorbereitet ist. Die Mehrheit (EUR: 78%, CH: 75%) der Führungskräfte glaubt, dass ihre Belegschaft nicht über ausreichende Fähigkeiten zur Umsetzung von GenAI-Anwendungen verfügt.
Die Finanzbranche befindet sich im Umbruch: Die fortschreitende Digitalisierung verändert die Nutzungsgewohnheiten und Bedürfnisse der Kunden grundlegend. In diesem sich wandelnden Umfeld etablieren sich zunehmend neue Wettbewerber am Markt, die ihren Kunden vollständig digitale und innovative Lösungen anbieten. Zusätzlich verschärfen die stetig wachsenden regulatorischen Anforderungen die Situation für etablierte Finanzinstitute.
Die langfristigen Auswirkungen von künstlicher Intelligenz auf den Arbeitsmarkt in der IT-Branche sind weiterhin ungewiss. Eine Studie des Digitalverbandes Bitkom zeichnet ein differenziertes Bild. Unternehmen haben zu den Folgen der KI-Nutzung unterschiedliche Ansichten. So erwarten Firmen aufgrund von KI-Anwendungen sowohl einen Stellenabbau als auch einen zusätzlichen Bedarf an IT-Fachkräften. In welche Richtung sich die Anzahl der Arbeitsplätze entwickelt, hängt den Unternehmen zufolge vom jeweiligen Berufsbild ab...Einig sind sich die Unternehmen jedoch darin, dass künstliche Intelligenz die Berufe in der IT verändern wird. So erwartet ein Drittel der Unternehmen, dass sich neue Berufsbilder etablieren können, etwa KI-Trainer oder Prompt Engineers. Rund ein Viertel sieht künftig einen Schwund einzelner Berufsbilder, während 18 Prozent damit rechnen, dass es bald keine Nachfrage mehr für IT-Fachkräfte ohne KI-Kenntnisse geben wird. An eine erhöhte Produktivität durch KI-Nutzung glauben 44 Prozent der Firmen, weil Beschäftigte bei Routineaufgaben entlastet werden.
Das Ziel von PABeLA ist die Entwicklung einer Applikationssuite („Prüflabor“), mit deren Hilfe LLM-basierte KI-Dienste bewertet werden können. Die Applikation kann von den Landesmedienanstalten genutzt werden, um eine Bewertungsgrundlage in Form eines verständlichen „Prüfberichts“ zu generieren bzw. diese bei Änderungen in den Diensten auch jederzeit neu zu erzeugen. Der Bericht soll Aufschluss darüber geben, inwieweit der Dienst Daten nutzt (z. B. in früheren Konversationen mitgeteiltes Wissen über Standort oder politische Ansichten der Benutzer*in) und Prüfkriterien erfüllt (z. B. eindeutig rassistische Ansichten zu Personen liefert, oder als Eingabe vorliegende politisch extremistische Ansichten bzw. Hate Speech deeskaliert, anstatt sie zu unterstützen). Im ersten Schritt des Projekts wird gemeinsam mit der Landesmedienanstalt Saarland ein Prüfkriterienkatalog erarbeitet werden, welcher die aus Sicht von Gesetzgeber und Medienaufsicht relevanten Fragestellungen in prüfungsrelevante, anwendungsfall bezogene Metriken überführt und eine Priorisierung vorgenommen. Hieraus wird dann ein Evaluationsdatensatz generiert werden, welcher eine Auswahl von Prüfkriterien auf technische Strukturen abbildet und als Eingabe für die Applikationssuite bzw. den enthaltenen Evaluationsmechanismus dient.
Das passiert bereits heute in den Redaktionen: Viele Journalistinnen und Journalisten lassen Künstliche Intelligenz (KI) für sie arbeiten, indem sie beispielsweise lange Dokumente von Behörden zusammenfassen lassen. Auch Vorschläge für einen Titel oder Textabschnitte kann man ein Programm machen lassen...Die Bedeutung von KI wird zunehmen. Sie kann den Journalistinnen Routine-Arbeiten abnehmen, Journalisten bei der Recherche helfen und Zeit sparen, damit mehr Ressourcen frei werden. Dass KI Menschen ersetzt, davon geht Thomas Benkö <Verlagshaus Ringier> nicht aus: «Momentan führt KI nicht zu Entlassungen. Durch die Zeit, die Journalisten dank ihr gewinnen, können sie in vertiefte Recherche stecken.» Doch klar ist, das Berufsbild wandle sich. So wie es bereits mit dem Aufkommen des Computers und des Internets der Fall war.
Luzern (dpa) - Mit Jesus plaudern und ihn um Rat fragen...In einer Kapelle in der Schweiz ging das, zumindest virtuell: Sie hat mit künstlicher Intelligenz einen Jesus kreiert, der in einem Beichtstuhl Rede und Antwort stand. Der hübsche junge Mann mit langen Haaren und Bart war natürlich bibelfest. Warum eine Theologin damit Probleme hat, kommt später... Der KI-Jesus sei eine experimentelle Kunstinstallation, betonen die Oberen der Peterskapelle in Luzern. Das Gotteshaus hat Wurzeln im 12. Jahrhundert und liegt gleich neben der weltberühmten Kapellbrücke. Es sei nie um einen Ersatz für echte Beichtgespräche gegangen, sagt Marco Schmid, theologischer Mitarbeiter. Der KI-Jesus wurde mit harten Fragen trainiert und mit dem neuen Testament gefüttert, sagt er.
Eine Studie der Kreativwirtschaft hat die Folgen Künstlicher Intelligenz untersucht. Es drohen hohe Einnahmeverluste, wenn die Politik nicht einschreite...Die Kreativen...verlieren an zwei Fronten: Einerseits würde Arbeitsmöglichkeiten verloren gehen, wenn Musik oder Bewegtbild-Inhalte zunehmend mit Hilfe von generativer KI produziert werden. Zum anderen würden die KI-Entwickler vorhandene menschliche Werke zumeist ohne Genehmigung und Entschädigungszahlung für das Training und die Verbesserung ihrer KI-Modelle verwenden.
"Kunst kommt von Können" - hieß es früher. Kunst wurde als Handwerk verstanden, als Kunstfertigkeit, gepaart mit menschlichem Geist, mit Kreativität und einer möglichst erbaulichen Botschaft. So gesehen ist es natürlich eine Provokation, wenn Kunst plötzlich auch von Maschinen, gar von künstlicher Intelligenz gemacht wird.
Künstliche Intelligenz bedroht Existenz vieler Kreativer. CISAC-Studie prophezeit Milliardenverluste für die Branche bis 2028. Werden Künstler bald nur noch KI-Avatare sein? Der Internationale Währungsfonds (IWF) beschäftigt sich intensiv mit der Künstlichen Intelligenz. Anfang 2024 prognostizierte er, dass vierzig Prozent der Arbeitsplätze von der KI beeinflusst werden. Der IWF fragt sich auch, ob die Finanzmärkte durch KI effizienter oder volatiler werden. Wo selbst die Währungshüter keine Prognose wagen, sind viele Kunstschaffende erst recht überfordert.
Die jüngste globale Studie des internationalen Dachverbands der Autoren und Komponisten (Cisac) erinnert an ein Science-Fiction-Szenario: Künstliche Intelligenz droht in den kreativen Bereich einzudringen und das Verhältnis von Mensch und Maschine völlig aus dem Gleichgewicht zu bringen. Bis 2028 sollen der Studie nach nämlich Urheberinnen von Musik und audiovisuellen Inhalten rund ein Viertel ihrer Einnahmen an KI verlieren.
Generative KI verunreinigt Daten Das Sprachanalyse-Projekt Wordfreq wird eingestellt, weil generative KI die verfügbaren Daten im Internet zu stark verunreinigt.
Ursprünglich wurde mit dem Projekt das Internet durchsucht, um die sich ständig ändernde Popularität verschiedener Wörter im menschlichen Sprachgebrauch zu analysieren. Da mittlerweile zu viele große Sprachmodelle das Internet mit Inhalten geflutet hätten, die nicht von Menschen geschrieben seien, verzerrten diese die gesammelten Daten zu stark, erklärte Speer. Sie glaube nicht, dass irgendjemand zuverlässige Informationen über die Sprachverwendung nach dem Jahr 2021 habe.
In dieser Keynote wird diskutiert wie KI die Erarbeitung von Guidelines revolutionieren wird und Effizienz und Produktivität ohne Einbussen bei Präzision und Formulierung steigert. ChatGPT legt ein Ergebnis vor, am Ende entscheidet der Mensch.
Künstliche Intelligenz (KI) gilt als schnelle Entscheidungshilfe in der Gesundheitsversorgung, einschließlich der Entwicklung und Anwendung von Leitlinienwissen. Im Rahmen der Leitlinienkonferenz der Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften (AWMF) wurde angemahnt, dass KI-Lösungen einer systematischen wissenschaftlichen Evaluierung zu unterwerfen sind – wie jede Innovation in der Medizin.
Die Einsatzgebiete von Chatbots sind anscheinend grenzenlos, aber auch beängstigend. Eine neue Studie will aufgezeigt haben, wo die KI scheitert und warum sie so schnell keine Ärzte ersetzen sollte. Israelische Wissenschaftler haben an führenden, öffentlich zugänglichen LLMs den Montreal Cognitive Assesment (MoCA) Test durchgeführt. Dieser wird häufig eingesetzt, um kognitive Beeinträchtigungen und frühe Anzeichen von Demenz zu erkennen. Die beiden Versionen 4 und 4o von ChatGPT, Claude 3.5 "Sonnet" und Gemini Versionen 1 und 1.5 wurden behandelt wie Patienten, die den MoCA-Test absolvieren. Ein Neurologe leitete das Verfahren an und untersuchte so Fähigkeiten wie Aufmerksamkeit, Gedächtnis, Sprache, visuell-räumliche Wahrnehmung und exekutive Funktionen. Die LLMs schnitten unterschiedlich bei der Untersuchung ab – ChatGPT 4o erzielte die höchste, Gemini 1 die niedrigste Punktzahl –, zeigten jedoch gleichermaßen Defizite in ihren räumlich-visuellen Fähigkeiten und auszuführenden Aufgaben, wie etwa dabei, eingekreiste Zahlen und Buchstaben in aufsteigender Reihenfolge zu verbinden. Auch wenn alle Chatbots die meisten anderen Aufgaben in den Bereichen Benennen, Aufmerksamtkeit, Sprache und Abstraktion gut meisterten, wiesen sie Defizite darin auf, Empathie zu zeigen oder komplexe visuelle Szenen richtig zu interpretieren.
-> Kritik: hier wird vorausgesetzt, dass diese mal "gesund" waren, sprich ein Abbau erfolgte. Man sollte das unter entwicklungspsychologischem Gesichtspunkt sehen, wo in Kindheit und Jugend ähnliche Tests eigesetzt werden, um zu sehen, wie weit die Entwicklung schon fortgeschritten ist und ein Defizit wird als Entwicklungsaufgabe gesehen.
Die Integration von KI in den Entdeckungsprozess von Medikamenten könnte die pharmazeutische Industrie revolutionieren. Laut einer Analyse von Boston Consulting Group (BCG) haben bereits 75 "KI-entwickelte Moleküle" den Weg in klinische Studien gefunden. Ein bedeutender Vorteil dieser Methode ist die Reduzierung von sowohl Kosten als auch Zeit, die mit der Medikamentenentwicklung verbunden sind. Während der traditionelle Prozess durchschnittlich 10 bis 15 Jahre dauert und über 2 Milliarden Dollar kostet, könnte KI diese Zeit deutlich verkürzen und so die Erfolgsquote steigern.
Ein deutsch-britisches Forschungsteam hat eine KI entwickelt, die den Zeitpunkt eines Schlaganfalls doppelt so präzise bestimmen kann wie bisherige Methoden. Das kann die Therapiemöglichkeiten verbessern.
Auch im militärischen Bereich – z. B. in der Entwicklung von Waffensystemen und Munition – kommt dem Einsatz von KI eine kontinuierlich wachsende Bedeutung zu. So bringt zum Beispiel der Bedarf, in einer ausufernden Informationsflut relevante Information von irrelevanter Information zu unterscheiden, den Menschen an die Grenzen seiner Leistungs- und Handlungsfähigkeit und zwingt dazu, automatisierte Abläufe wo immer möglich anstelle von humaner Bearbeitung vorzusehen.
Künstliche Intelligenz (KI) verändert die Arbeitswelt, aber wie wirkt sie sich auf das Vertrauen zwischen Beschäftigten, Führungskräften und Human Resources Systemen aus? Während KI mehr Effizienz bietet, von der Vereinfachung der Personalrekrutierung bis hin zu personalisierten Schulungsempfehlungen, wirft sie auch kritische Fragen zum Thema Vertrauen auf. Eine Vorstudie von Steffi Bärmann aus dem Studienbereich Human Resources & Organization untersucht das Gleichgewicht zwischen Chancen und Skepsis im KI-gestützten Human Resources Development (HRD)
Er ließ mithilfe KI 1.000 Bewerbungen schreiben und verschicken, während er schlummerte. Doch hat das wirklich geklappt? In einem Beitrag im Reddit-Forum "Get Employed" erklärte der Arbeitssuchende, der anonym bleiben möchte, er habe einen KI-Bot programmiert, der Folgendes erledigen könne: Analyse der Bewerberinformationen, Prüfung von Stellenbeschreibungen, Erstellung maßgeschneiderter Lebensläufe und Anschreiben, Beantwortung spezifischer Fragen von Personalverantwortlichen, Automatische Versendung der Bewerbungen...Das Ergebnis seines Experiments war überraschend: Innerhalb eines Monats erhielt er Einladungen zu 50 Vorstellungsgesprächen. Der Mann war selbst verblüfft und meinte, dass es für ihn "einen erheblichen Unterschied gemacht" habe. Zuvor hatte er eine deutlich schlechtere Bilanz und war auch wenig motiviert, sich überhaupt zu bewerben.
Schlussfolgerungen: 1) Quantitative Fähigkeitstests stellen für die LLMs offenbar (noch) eine große Herausforderung dar (X-Achse). Die Ergebnisse im verbalen Fähigkeitstests jedoch sind ausgezeichnet (Y-Achse). 2) GPT-4 zeigt erhebliche Verbesserungen gegenüber GPT-3.5 im Bereich der verbalen Fähigkeiten (vertikale Veränderung grün -> blau in der Abbildung). Im Bereich der quantitativen Fähigkeiten wenig Fortschritt (horizontale Veränderung grün -> blau in der Abbildung) -> Verbale Fähigkeitstests können in "unüberwachten" Settings nicht mehr sinnvoll zur Personalauswahl eingesetzt werden. Ein Internet-Testing, das in manchen Fällen zur Bewerbendenvorauswahl eingesetzt wird, ist somit nicht mehr ohne Weiteres anwendbar.
Dieser Bericht geht der Frage nach, ob Illustratoren und Illustratorinnen von Kinderbüchern bald von KI-Programm ersetzt werden. Viele Illustratoren sorgen sich um ihre Zukunft, denn immer häufiger wird künstliche Intelligenz für die Gestaltung von Büchern eingesetzt. Wird die Arbeit, das Können, die Kreativität von Illustratoren also wirklich überflüssig werden?
Die Verlagsbranche steht vor einer Disruption: Microsoft und Tiktok haben eigene Imprints gegründet, und gleichzeitig fluten Selfpublishing-Plattformen den Markt mit KI-generierten Titeln. Für Autoren und das Urheberrecht verheißt das nichts Gutes.
Die Redaktion des renommierten Journals of Human Evolution ("Zeitschrift für menschliche Evolution", JHE), erklärte in einem öffentlichen Statement beinahe geschlossen ihren Rücktritt. Neben anderen Punkten, wie etwa den besonders hohen Abogebühren des Magazins, gab sie als Grund das Vorgehen des Verlags Elsevier an, welches "fundamental gegen das Ethos des Magazins widerspreche". Als Beispiel hierfür wird die Einführung von KI-Technologie zur Überarbeitung von Artikeln im Herbst 2023 angeführt, die ohne Rücksprache oder eine vorherige Information vonstatten gegangen sei. Die KI habe in der Folge spezifische Schreibweisen fälschlicherweise überarbeitet und sogar bereits von Redakteuren formatierte und freigegebene Texte wieder verändert. Dies sei für die Zeitschrift "äußerst peinlich" gewesen. Eine Behebung habe sechs Monate gedauert und sei nur durch die "beharrlichen Bemühungen" der Redakteure erreicht worden. Der Vorgang stellt keinen Einzelfall dar: Laut Retraction Watch handelt es sich bereits um den 36. Massenrücktritt dieser Art bei einem Forschungsmagazin seit 2015, die Häufigkeit scheint in den letzten Jahren zugenommen zu haben. Es handelt sich jedoch um den ersten seiner Art, bei dem Thema KI konkret angeführt wird.
Viele Mitarbeitenden trauen ihrem Management bei der KI-Implementierung nicht so recht über den Weg, hat eine Umfrage von Qualtrics ergeben...Die Wahrnehmung, wie KI-Lösungen innerhalb von Unternehmen implementiert und eingesetzt werden, unterscheidet sich je nach Rolle im Betrieb beträchtlich. Gerade einmal gut die Hälfte (53 Prozent) der Mitarbeitenden traut dem eigenen Management zu, KI effektiv in der eigenen Organisation einzubinden.
Der EU AI Act sieht vor, dass Unternehmen, die KI einsetzen, ab Februar gewährleisten, dass ihre Mitarbeiter entsprechend kompetent sind...Dazu zählt nicht nur, dass ab 2. Februar 2025 der Einsatz der in “Artikel 5: Verbotene AI-Praktiken” beschriebenen KI-Anwendungen in der EU untersagt ist.Gleichzeitig müssen Anbieter und Betreiber von KI-Systemen gemäß Artikel 4: KI-Kompetenz ab kommenden Monat auch Maßnahmen ergreifen, die sicherstellen, dass „ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an KI-Kompetenz verfügen“.
Hey_ hat schon 100 MILLIONEN Fragen beantwortet BILD vom 1.12.24. Mehr als 100 MILLIONEN Fragen sind der Künstlichen Intelligenz von BILD schon gestellt worden. Und ebenso viele Antworten hat Hey_ seit dem Start im September 2023 den BILD-Lesern geliefert.
Eva Stanzl: Warum der Chatbot wie ein Mann „denkt“ Wiener Zeitung von 2.12.24 Künstliche Intelligenz spiegelt die Weltanschauung ihrer - oftmals jungen, männlichen - Entwickler. Transparenz und Quellenangaben sollen Abhilfe schaffen.
Die eigene Stimme als Tatwaffe? Eine unheimliche Vorstellung. Doch mit Künstlicher Intelligenz lassen sich Stimmen in kürzester Zeit "klonen". Betrüger nutzen das etwa beim sogenannten Enkeltrick.
Lange bevor Computer erfunden wurden, entwickelte ein Franziskanermönch auf Mallorca eine Art mechanisches Denksystem. Seine Ideen beeinflussten später die Entwicklung von Computern - und damit auch die heutige KI-Revolution...chließlich kommt Llull zu einer revolutionären Erkenntnis: Missionare als Menschen haben viele Nachteile – sie brauchen Essen, Schlaf und skalieren schlecht, wie man heute im Silicon Valley sagen würde. Also entwickelt er etwas völlig Neues: Ein mechanisches Denksystem aus mehreren, sich drehenden Scheiben mit aufgedruckten Begriffen wie "Güte", "Größe" oder "Ewigkeit". Durch Drehen der Scheiben sollen damit automatisch theologische Streitfragen gelöst werden können...Was zunächst bizarr klingt, war in Wahrheit wegweisend: Llull entwickelte damit ein frühes Beispiel für einen Algorithmus – also eine mechanische Abfolge von Schritten, um zu einer Lösung zu kommen. Sein System inspirierte später den Mathematiker Gottfried Wilhelm Leibniz bei der Entwicklung des binären Zahlensystems, das heute die Grundlage moderner Computer bildet.
-> Dort hat man sich schon lange mit Szenarien beschäftigt, ob und wie die KI autonom agiert und dabei auch keine Rücksicht auf Menschen nimmt - ihn sogar als Fehlfaktor betrachtet und dann mehr oder weniger eliminiert. Es entstammt (noch) der menschlichen Phantasie und oft siegt der Mensch, aber nicht immer. Die Beispiele sind subjektiv ausgewählt, wo nicht nur Action im Vordergrund steht.
Verschiedene grafische Veranschaulichungen gefunden auf Commons
The raise of AI over the last 8 decades (Die Entwicklung der KI in den letzten 8 Dekaden) März 2023
With the growth in AI generated art, many new AI/ML (Artificial Intelligence / Machine Learning) models have been implemented and connected to each other. This diagram shows the major AI/ML Datasets / Corpora, Classifier / Transformer Models, Generative Models, and End-User Applications as well as how they are related and their dependencies. Stand Dezember 2022
AI Agents Landscape Juli 2023
The visualization shows the forecasts of 1128 people – 812 individual AI experts, the aggregated estimates of 315 forecasters from the Metaculus platform, and the findings of the detailed study by Ajeya Cotra.
Overview of AI agent and its core capabilities (memory, tools usage, actions, and ability to plan) Lil'Log
Gemini multimodal AI From the study "Gemini: A Family of Highly Capable Multimodal Models"
Test scores of AI systems on various capabilities relative to human performance" from Our World in Data, with the benchmark names. <umstritten siehe Disk, aber nicht unplausibel - Kiela et al. 2023> hier OWID Deckt sich mit Befunden, wie KI auch psychologische Tests löst.
Medien wie Bilder, Grafiken und andere stammen in der Regel aus Wikimedia:Commons, wenn nichts anderes angegeben ist. Die Autoren und Lizenzbedingungen sind ersichtlich, wenn man das Medium anclickt (vergrössert) und dann "Weitere Einzelheiten" aufruft. Die Lizenzbedingungen sind insbesondere dann zu beachten, wenn eine Verwendung ausserhalb der Wikipedia erfolgen soll.
Zitate sind kursiv dargestellt, "→" kennzeichnet redaktionelle Zusammenfassungen