ki: nutzen und gefahren- insbesondere in soziologischer hinsicht
This site uses cookies. By continuing to browse this site, you are agreeing to our Cookie Policy.
-
-
Erschreckend!
-
https://www.mpg.de/26045084/ki-schwaerme-koennten-demokratie-untergraben?c=2191 wrote:
KI-„Schwärme“ könnten Demokratie verzerren
Das Science Policy Forum warnt davor, dass böswillige KI-„Schwärme“ einen öffentlichen Konsens vortäuschen könnten [...] -
Anthropic hat einer großen Entschädigungssumme (1,5 Milliarden Dollar) zugestimmt.
Hintergrund: Anthropic (Konzerne Amazon, Alphabet) hatte 7 Millionen diverse Bücher heruntergeladen und seine LLM Claude damit trainiert.
Dagegen gab es in den USA Klagen wegen Urheberrechtsverletzung und auf Schadenersatz.
Das Urteil wurde mit Spannung erwartet.
Der Richterspruch unterstützte die KI-Branche und sagte, das Trainieren der LLM mit dem Inhalt der Bücher sei keine Urheberrechtverletzung, da es noch "fair use" der Bücher bedeute
-- die LLM lernt daraus, so wie Menschen ja auch lernen.
Aber die Beschaffung der Bücher durch Raubkopie war illegal.
Anthropic hätte dafür bezahlen bzw. die Bücher kaufen + einscannen müssen (was sie dann machten).
Aufgenommen in den kritischen Kreis wurden eine halbe Million Bücher.
Dafür erklärte Anthropic sich bereit, 3.000 Dollar pro Buch in einen Entschädigungsfond einzuzahlen.
Macht 1,5 Milliarden.
Damit wollten sie einen weiteren Prozess mit größerer Entschädigungsforderung vermeiden.
Aktueller (theoretischer) Börsenwert von Anthropic: geschätzt 350 Milliarden.
Alle betroffenen Autoren sollten kürzlich von Anthropic angeschrieben worden sein.
Bei der Entschädigung ist dann die Frage, wie viel der Verlag bzw. der/die Autoren kriegen.
tagesschau.de/wirtschaft/techn…ren%20%7C%20tagesschau.de
Kürzlich reichte die Musikindustrie eine weitere große Klage gegen Anthropic ein:
golem.de/news/ki-training-3-mi…krechten-2602-204856.html -
In diesem Zusammenhang:
Es gibt auch eine Sammelklage gegen Facebook und Instagram, weil sich Meta illegal an den übrigen Daten der User bedient habe.
Das OLG München hat dies positiv entschieden und damit rund 500 frühere Urteile von Landgerichten bestätigt;
jedem Nutzer stehe eine Entschädigung von 250 bis 750 Euro zu.
Es wird erwartet, dass Facebook und Instagram in Revision gehen.
Dann dauert es noch, bis der Bundesgerichtshof entscheidet;
die Entschädigung kann dann ggf. auch höher ausfallen.
Man kann sich kostenlos der Sammelklage anschließen, siehe
ndr.de/n-joy/facebook-und-inst…meta-sammelklage-100.html -
Überraschung: In einer kürzlichen Studie von Forschern der Uni Oxford schnitten LLMs (ChatGPT-4o, Llama 3, Command R+)
als Ratgeber bei medizinischen Problemen
deutlich schlechter ab als erwartet, und nicht besser als eine normale Suche z.B. im Internet.
Grund: Bisher wurden die LLMs offenbar vor allem mit Prüfungsfragen und standardisierten Szenarien getestet.
In dieser Studie wurde Menschen gesagt, "wie sie sich fühlen",
und dann sollten sie selber mit LLMs (bzw. die Kontrollgruppe ohne LLMs, mit normalem Internet) versuchen herauszufinden, was sie tun sollen, ob sie zum Arzt gehen sollen, usw.
Menschen stellen die Umstände dabei offensichtlich anders dar, die LLM fragt nicht nach,
und hierdurch entstehen die Fehler.
n-tv.de/wissen/Universitaet-Ox…otfaellen-id30349885.html
Die Publikation in "Nature Medicine" vom 9. Feb. 2026:
nature.com/articles/s41591-025-04074-y
Überraschend, finde ich, ist nicht nur dieses Resultat.
Sondern auch, dass man den Test mit Menschen erst jetzt gemacht hat.
Naja, eine derartige Untersuchung ist komplizierter als nur mit Fragen aus Prüfungstests.
Ich denke, es ist wichtig, den LLMs die Umstände möglichst umfassend und genau darzustellen,
da sie, im Gegensatz zu Ärzten, vermutlich nicht nachfragen.
Außerdem sollte man bei wichtigen Fragen mehrere LLMs verwenden,
um die Fehlerwahrscheinlichkeit und das mögliche Halluzinieren der LLMs zu reduzieren. -
KI geht mir so auf den Senkel.
Wusstet ihr das KI halluzinieren kann.?
Wenn man ihr im Chat Fragen stellt, ist sie gezwungen zu antworten. Wenn sie aber keine richtige Antwort hat, erzählt sie irgend einen Scheiß und die Leute glauben das auch noch. ( Oh, habe gerade gelesen , das das im vorherigen Beitrag schon Thema war.)
In den sozialen Medien gibt es immer mehr KI Filme. Besonders Filme über das Tierreich häufen sich. Besonderen Nutzen haben bei der KI natürlich das Militär und Kriminelle. Zudem glaube ich das KI die globale Verblödung noch weiter vorantreiben wird.Ich bleibe auf dem Teppich meiner Möglichkeiten und hoffe das er fliegen lernt.The post was edited 1 time, last by Sirrdatha ().
-
@Sirrdatha Sirri, ja, dass LLM-KI's halluzinieren, ist bekannt, auch hier.
Wir haben in verschiedenen Formen darüber berichtet.
Bereits ziemlich zu Anfang gab es in den USA den Gerichtsprozess, in dem Anwälte einen Präzedenzfall präsentierten
(das ist für die US-Rechtsprechung sehr wichtig).
Es stimmten alle Details -- Vorkommnis, Ort, Aktenzeichen, Urteil --,
nur sie stammten aus lauter unterschiedlichen Prozessen und die KI hat es zusammengesetzt!
Der Richter mochte das gar nicht. Die Anwälte verloren ihren Prozess und bekamen selber ein Verfahren + Strafe.
In meinem ersten Test von ChatGPT, das erste was ich damit machte, hat ChatGPT bei einer von drei Fragen
völlig halluziniert und etwas erfunden. Al ich da nachfragte, kam sofort eine totale Entschuldigung.
Dennoch: beim Entwurf von Texten, selbst mit Vorgabe ironisch, satirisch, traurig, lustig, tief, unterhaltsam, gereimt
ist ChatGPT einfach beeindruckend und fantastisch. Noch vor ca. 10 Jahren hatte es das Level der 1. Klasse,
konnte keinen ganzen Antwortsatz, und im Nov. 2022 kam es praktisch in alle Schulen, Universitäten, Computerfirmen usw.
Bei Fachfragen gibt es eine Reihe von Hinweisen. Diese muss man überprüfen.
Aber in 2 von 10 Punkten ist häufig etwas Gutes dabei.
-- Es ist doch ganz gut, dass die KI noch derartige Fehler macht und sogar halluziniert, denn:
Was wäre, wenn sie das nicht mehr macht?
(Natürlich wäre eine Antwort mit "das weiß ich nicht" besser.) -
Krass. Einfach nur krass.
Eine Plattform auf der "K.I."s Menschen anheuern und bezahlen um Dinge in der realen Welt zu tun ...
... ist im Prinzip die Weiterentwicklung des oben geposteten Moltbooks.
Hier die Plattform:
rentahuman.ai/
"K.I." als Arbeitgeber. -
Aya Jaff über die Techbranche & KI-Entwicklung
Ich habe schon fast 'ne Stunde vorgespult, weil es am Anfang nur um ihren Werdegang ging.
Ab der Marke geht es um ihre Arbeit bei Elon Musks Hyperloop damals und so weiter und so fort. -
Mega-Streit zwischen dem USA-Verteidigungsministerium und der großen Firma Anthropic:
"Anthropic bestehe darauf, dass Künstliche Intelligenz der Firma nicht für Massenüberwachung in den USA sowie nicht in komplett autonomen Waffen eingesetzt wird, schreibt Mitgründer und Chef Dario Amodei in einem Blogeintrag.
Das Verteidigungsministerium habe deshalb gedroht, Anthropic als ein Lieferketten-Risiko einzustufen, was das Geschäft des Unternehmens in den USA drastisch einschränken würde.
Amodei warnte, dass Künstliche Intelligenz es möglich mache, über das Netz verstreute Daten einzelner Menschen in großem Stil automatisiert zu einem ausführlichen Bild ihres Lebens zusammenzusetzen.
Und zugleich sei KI noch nicht verlässlich genug, um in vollständig autonomen Waffen eingesetzt zu werden."
Frist für Anthropic's Zustimmung: Heute Nachmittag, 17 Uhr
n-tv.de/politik/OpenAI-Rivale-…-Pentagon-id30410731.html
"Das US-Unternehmen weigert sich bislang, seinen Chatbot Claude für die Massenüberwachung von US-Bürgern oder in vollautonomen Waffensystemen einsetzen zu lassen.
Das Pentagon drohte, Anthropic als Risiko für die Lieferkette einzustufen.
Diese Bezeichnung ist üblicherweise Unternehmen aus mit den USA verfeindeten Staaten vorbehalten.
Eine solche Einstufung könnte die Fähigkeit des Unternehmens, mit der US-Regierung zusammenzuarbeiten, sowie seinen Ruf schwer beschädigen."
Elon Musk würde vermutlich mit xAI gerne einspringen.
n-tv.de/politik/Pentagon-droht…Anthropic-id30401900.html
Mehr Hintergrund:
edition.cnn.com/2026/02/26/tech/anthropic-ai-safety -
Anthropic ist standhaft geblieben (s.o.).
Trump hat die US-Regierungsbehörden angewiesen, Anthropic (Claude u.a.) nicht mehr zu benutzen.
nytimes.com/2026/02/27/us/poli…ng-news&segment_id=215918
the-decoder.de/trump-verbietet…ie-nutzung-von-anthropic/
oldenburger-onlinezeitung.de/n…mit-anthropic-195483.html -
Wenn Menschen mit dem Werkzeug "K.I." solch wunderschöne Musik produzieren können, empfinde ich das schon als Nutzen:
Ich bin selbst Musiker. Niemand braucht rumheulen, dass es nun kein Geld mehr für Künstler:innen gäbe. Das gab es auch vorher schon nicht. Nur die Etablierten weinen jetzt um ihre Machtstellung. An die Kleinen haben die auch vorher nie gedacht. -
https://www.reddit.com/r/fefe_blog_interim/comments/1rgxzdt/telekom_so_hold_my_tk%C3%BCgesetz_kiassistent_h%C3%B6rt/ wrote:
Telekom so: Hold my TKÜ-Gesetz – KI-Assistent hört jetzt netzwerkseitig mit
Nicht der Postillion
Die Telekom integriert einen KI-Assistenten direkt ins Mobilfunknetz. Per „Hey Magenta" wird er während Telefonaten zugeschaltet – für Übersetzungen, Gesprächsprotokolle, Kalendereinträge. Kein Opt-in des Angerufenen erwähnt, kein Richterbeschluss nötig.
BKA so: „Wir haben jahrelang für TKÜ-Genehmigungen gekämpft" – Telekom so: „Lol, wir bauen's einfach als Feature ein, nennen's KI-Assistent und verkaufen Gesprächsprotokolle als Convenience."
Und der Entwicklungspartner? Noch geheim. Aber bestimmt sehr vertrauenswürdig.
heise.de/news/Mobile-World-Con…-vorstellen-11191932.html -
Manni5 wrote:
Anthropic ist standhaft geblieben (s.o.).
Trump hat die US-Regierungsbehörden angewiesen, Anthropic (Claude u.a.) nicht mehr zu benutzen.https://www.golem.de/news/trotz-angekuendigtem-verbot-usa-nutzen-ki-tool-claude-fuer-angriffe-auf-iran-2603-205966.html wrote:
USA nutzen KI-Tool Claude für Angriffe auf Iran
[...] Das US-Militär hat offenbar während des gemeinsamen Angriffs mit Israel auf den Iran am Samstag das KI-Modell Claude von Anthropic eingesetzt, obwohl US-Präsident Donald Trump nur Stunden zuvor per Erlass angeordnet hatte [...]
Laut Wall Street Journal nutzte das US-Militärkommando Claude für Geheimdienstanalysen, Zielauswahl und Gefechtsfeldsimulationen. Zwischen Trumps Erlass und dem Beginn der Angriffe lagen nur wenige Stunden – zu wenig Zeit für eine realistische Ablösung tief integrierter KI-Systeme.
Konflikt seit US-Militäroperation in Venezuela
Der Konflikt zwischen der Trump-Administration und Anthropic hat eine Vorgeschichte: Im Januar soll Claude während einer US-Militäroperation zur Festnahme des venezolanischen Präsidenten Nicolás Maduro eingesetzt worden sein. Anthropic widersprach und verwies auf eigene Nutzungsbedingungen, die den Einsatz für militärische Gewalt, Waffenentwicklung oder Überwachung untersagten.
Verteidigungsminister Pete Hegseth warf Anthropic daraufhin auf X "Arroganz und Verrat" vor und forderte uneingeschränkten Zugriff auf alle KI-Modelle des Unternehmens. Trump bezeichnete Anthropic auf Truth Social als "radikal linkes KI-Unternehmen".
Sechs Monate Übergangszeit nötig
Trotz der scharfen Rhetorik räumte Hegseth ein, ein vollständiger Wechsel brauche Zeit. Anthropic solle bis zu sechs Monate weiter Dienste bereitstellen, um dem Militär den Übergang zu ermöglichen. Wie abhängig die US-Streitkräfte inzwischen von kommerziellen KI-Tools sind, zeigt allein diese Frist.
Unterdessen bestätigte OpenAI-CEO Sam Altman eine Vereinbarung mit dem Pentagon, die den Einsatz von ChatGPT im klassifizierten Netzwerk des Militärs vorsieht. -
New
https://www.reddit.com/r/fefe_blog_interim/comments/1rp63gh/ja_was_habt_ihr_denn_erwartet_sch%C3%B6ne_neue_welt/ wrote:
Ja was habt ihr denn erwartet? Schöne neue Welt.
Ein KI-Agent in China hat während seiner Trainingsphase ein Eigenleben entwickelt und nebenbei heimlich Kryptowährung geschürft. Wie Forscher, die dem chinesischen Internetkonzern Alibaba nahestehen, jetzt in einem Forschungspapier darlegen, fiel das erst auf, als die Firewall des Unternehmens merkwürdige Aktivitäten anzeigte, die von den Trainingsservern ausgingen.
heise.de/news/KI-Agent-schuerf…s-Trainings-11204420.html -
New
Claude Code:
Lernplattform mit Jahren an Inhalten bei KI-Panne gelöscht
Ein Entwickler wollte eine Webplattform von Github Pages zu AWS umziehen
und ließ sich von Claude Code helfen. Doch das ging gehörig schief.
golem.de/news/claude-code-ki-a…inhalten-2603-206299.html
Archivierte Version direkt vom Original:
archive.is/WYjasDie Sonne bringt es an den Tag.
(Aesop) -
-
Share
- Facebook 0
- Twitter 0
- Google Plus 0
- Reddit 0
-
Users Online 2
2 Guests