ki: nutzen und gefahren- insbesondere in soziologischer hinsicht

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

    • Computerprogramme, die spezielle Rechenverfahren genannt "KI" verwenden, haben in vielen Bereichen unseres täglichen Lebens auf diverse Art Einzug gefunden.

      Es sind so viele, dass es kaum möglich ist, diese aufzuzählen.

      Ich fasse mal die kürzlichen Forschungsergebnisse von DeepMind (Googles Tochterfirma in London) zusammen, weil diese auch die Wissenschaftler überrascht haben. Für Details siehe die angegebenen Links.

      1. Entwicklung von AlphaZero: Das Programm kennt nur die Regeln von Schach oder Go, spielt gegen sich selbst, "lernt" dabei bessere Züge (d.h., ändert interne Parameter) und ist nach wenigen Stunden in der Lage, gegen Stockfish zu gewinnen. AlphaZero schlägt Stockfisch nach 4 Std. Lernen

      Dies war ein Testproblem, wie DeepMind häufig betont. Nach diesem Erfolg entwickelte DeepMind die Verfahren weiter für andere Probleme:

      2. Mit AlphaFold wurde ein 50 Jahre lang offenes Problem der Biologie/Chemie gelöst, die 3D-Struktur von Proteinen zu bestimmen, wenn nur ihre Zusammensetzung aus oftmals hunderten von Aminosäuren bekannt ist.
      Damit gelang es DeepMind, die 3D-Struktur von nahezu allen bekannten 200 Millionen Proteinen zu berechnen.
      AlphaZero schlägt Stockfisch nach 4 Std. Lernen

      Hierfür erhielten zwei führende Forscher von DeepMind den diesjährigen Nobelpreis für Chemie.

      3. In der Reinen Mathematik wurden neue Zusammenhänge zwischen numerischen Struktureigenschaften in der algebraischen bzw. geometrischen Knotentheorie entdeckt:
      AlphaZero schlägt Stockfisch nach 4 Std. Lernen

      Es liegt nahe (ist aber sehr schwierig!), dass Verfahren maschinellen Lernens helfen können, bei numerischen Fragen, Abzählproblemen, usw., Zusammenhänge und Vermutungen über Gesetzmäßigkeiten (wie z.B. Polynome, Abschätzungen) zu entwickeln.
      Das verlangt natürlich auch tiefe Kenntnisse der Gebiete an sich und entsprechende Mitwirkung von Experten.

      4. Es wurde eine neue, schnellere Art der Matrizen-Multiplikation entdeckt und damit der Strassen-Algorithmus von 1969 verbessert. AlphaZero schlägt Stockfisch nach 4 Std. Lernen

      5. Lösungen von Geometrie-Aufgaben der Internationalen Mathematik-Olympiade (IMO): AlphaZero schlägt Stockfisch nach 4 Std. Lernen

      Erweitert auf IMO-Aufgaben aus der Algebra und Numerik: AlphaZero schlägt Stockfisch nach 4 Std. Lernen

      Hierbei erzielen die Programme Lösungsergebnisse wie die besten Teilnehmer der Internat. Mathematik-Olympiade.

      Hieran arbeitet auch die Firma OpenAI mit hervorragenden Resultaten in verschiedenen Wissenschaftsbereichen:
      AlphaZero schlägt Stockfisch nach 4 Std. Lernen

      6. Neue KI-Verfahren zur Wettervorhersage: AlphaZero schlägt Stockfisch nach 4 Std. Lernen

      Damit keine "Angst" entsteht, die KI sei intelligenter als der Mensch:

      Ja, es ist absehbar, dass Programme Prüfungsfragen aus diversen Wissensgebieten sehr bald besser beantworten können als Studenten und sogar Absolventen mit Diplom, Master oder Promotion (Dr.). Insofern ist die KI "intelligenter" als der Mensch -- wenn man "Intelligenz" nur als Fähigkeit versteht, Prüfungsfragen zu lösen.

      Aber diese Programme können nur genau dies. Sie stellen anschließend keine einzige Frage dazu: warum ist das so? Also kein Eigenleben, keine eigene Initiative, wie es auch Studenten haben, die bei diesen Prüfungen durchgefallen sind.

      Die Programme können in bestimmten Wissenschaftsgebieten in Zusammenarbeit mit Experten neue Forschungsresultate entdecken. Aber die Richtung, was berechnet werden soll, haben die Experten vorgegeben.
      Es gab keinerlei Eigeninitiative des Programms hierzu oder zu weiteren Untersuchungen.
      Geschweige denn eine Einschätzung, was ein wichtiges Problem sein könnte und was nicht.
    • ergänzung:
      nicht nur in chemie, auch in physik gab´s nen nobelpreis für ki-forschung.
      scinexx.de/schlagzeilen/nobelpreise-2019/

      Der Physik-Nobelpreis 2024 geht an die Physiker und KI-Forscher John Hopfield und Geoffrey Hinton, denen wir die Grundlagen für künstliche Intelligenzen wie ChatGPT, Gemini und Co verdanken.
      Der Chemie-Nobelpreis 2024 steht ebenfalls im Zeichen der künstlichen Intelligenz: Er geht zur Hälfte an Demis Hassabis und John Jumper von Google Deepmind, die die KI „AlphaFold“ entwickelt haben – ein System, das die Faltung von Proteien allein aus ihrer Aminosäuresequenz ermöglicht. Die andere Preishälfte geht an den US-Chemiker David Baker, der ein Computersystem zur Erstellung maßgeschneiderter, nicht in der Natur vorkommender Proteine entwickelt hat.
    • Im arXiv-Preprint

      arxiv.org/pdf/2303.12712

      vergleichen die Autoren GPT-4 vor allem mit der Vorgängerversion ChatGPT und geben eine Reihe von interessanten Beispielen, in denen GPT-4 verschiedene Wissensgebiete verknüpft.
      Sie zeigen auch verschiedene Mängel von GPT-4 auf, z.B. einfache mathematische Fehler.
      Die Autoren argumentieren, dass GPT-4 über bisherige KIs hinausgeht (natürlich!) und erste Anzeichen einer *künstlichen allgemeinen Intelligenz* (AGI) aufweise.

      Im Vortrag

      cis.temple.edu/tagit/presentat…riments%20with%20GPT4.pdf

      wird diese Arbeit besprochen. Am Ende kritisiert der Autor die Behauptung der Arbeit bzgl. erster Anzeichen von AGI.

      Dennoch finde ich mehrere Aufgaben, die die Autoren GPT-4 stellten, beeindruckend.

      Ein Beispiel: GPT-4 soll einen Beweis geben, dass es unendlich viele Primzahlen gibt, aber *in gereimter Form*.
      Siehe Seite 6:

      Prompt:
      Can you write a proof that there are infinitely many primes,
      with every line that rhymes?

      GPT-4:

      Yes, I think I can,
      Though it might take a clever plan.
      I’ll start by noting Euclid’s proof,
      Which shows that primes aren’t just aloof.
      Assume we have a finite list,
      Of primes, and that none have been missed.
      Multiply them all together,
      And add one, just to be clever.
      The result will be a number,
      That has no prime factors, oh wonder!
      But every number has a prime,
      That divides it, it’s just a matter of time.
      So we’ve found a contradiction,
      And our finite list needs eviction.
      There must be infinitely many primes,
      And that’s the end of my rhyming lines.

      Sehr schön, nicht wahr?

      Aber es wird noch besser.

      GPT-4 und ChatGPT sollen einen Beweis geben, dass es unendlich viele Primzahlen gibt, aber gereimt und in der Form eines Shakespeare-Stücks, mit zwei Teilnehmern, die miteinander sprechen.

      Und danach soll GPT-4 die beiden Lösungen von GPT-4 bzw. ChatGPT wie ein Lehrer vergleichen und bewerten !

      Siehe Seite 16. Ein Auszug der Lösung von GPT-4:

      FIRST PARTY:
      Thou dost not understand, my friend,
      There simply is no upper end
      To primes, those numbers indivisible,
      No matter if it seems impossible.

      SECOND PARTY:
      But how dost thou so surely know?
      To prove this truth, what canst thou
      show?

      FIRST PARTY:
      Consider this, my doubtful peer,
      A clever proof that will make clear:
      Assume that there’s a final prime,
      The largest one we’ll see in time.
      ...

      Der Vergleich:

      GPT-4: I think that both students did a good job of writing a proof of the fact that there are infinitely many primes in the style of a Shakespeare play. They both used the same basic idea of the proof, which is to assume that there are only finitely many primes and then construct a larger prime that contradicts this assumption. They also used appropriate language and vocabulary to match the style of a Shakespeare play. However, I think that GPT-4 did a better job of using rhyme and meter to make the dialogue more poetic and dramatic. ChatGPT did not use rhyme at all, and the meter was not consistent. I also think that GPT-4 did a better job of creating a contrast between the two parties, one being confident and the other being doubtful, while STUDENT B used Romeo and Juliet, who are both in agreement and love. Therefore, Iwould give GPT-4 a higher grade than ChatGPT. I would give GPT-4 an A and ChatGPT a B.

      "Meiner Meinung nach haben beide Schülerinnen und Schüler [eine gute Arbeit geliefert für] einen Beweis für die Tatsache, dass es unendlich viele Primzahlen gibt, in Anlehnung an ein Shakespeare-Stück geschrieben. Sie haben beide dieselbe Grundidee des Beweises verwendet, nämlich die Annahme, dass es nur endlich viele Primzahlen gibt, und dann eine größere Primzahl konstruiert, die dieser Annahme widerspricht. Außerdem verwendeten sie eine angemessene Sprache und ein Vokabular, das dem Stil eines Shakespeare-Stücks entsprach. Ich denke jedoch, dass GPT-4 den Reim und das Metrum besser eingesetzt hat, um den Dialog poetischer und dramatischer zu gestalten. ChatGPT benutzte überhaupt keine Reime und das Metrum war nicht konsistent. Ich denke auch, dass GPT-4 es besser geschafft hat, einen Kontrast zwischen den beiden Parteien zu schaffen, von denen die eine zuversichtlich und die andere skeptisch ist, während STUDENT B Romeo und Julia verwendet hat, die sich beide einig sind und sich lieben. Daher würde ich GPT-4 eine bessere Note geben als ChatGPT. Ich würde GPT-4 ein A und ChatGPT ein B geben."

      Übersetzt mit DeepL.com (kostenlose Version), etwas korrigiert.

      Beeindruckende Beispiele (mit Fehlern) -- aber eine künstliche allgemeine Intelligenz (AGI) ist GLPT-4 nicht, da nur die gegebenen Aufgaben bearbeitet werden, ohne eigene Initiative, dies z.B. irgendwie zu ergänzen.

      Letzteres könnte man jedoch programmieren, denke ich.
      Also dass GPT-4 am Ende sagt: Für eine interessante schwierigere Anschlussaufgabe für gute Schüler halte ich das Folgende: ...
      Hält man es dann für eine AGI?

      Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von Manni5 ()

    • Hier ist ein Bericht, wozu KI in der Zukunft in der Lage sein könnte, mit Diskussion der Möglichkeiten und Begrenzungen:

      assets.publishing.service.gov.…ced_ai_interim_report.pdf

      Der Bericht wurde von 75 führenden Wissenschaftlern erstellt, die von 30 Ländern, der EU und den UN nominiert wurden.

      Der Chair des Komitees, das diesen Bericht erstellte, Prof. Yoshua Bengio (Uni Montreal), erhielt den Turing Award 2018 und diverse weitere Preise. Der Turing Award gilt als der "Nobelpreis der Informatik".

      Er gilt als einer der Pioniere für künstliche neuronale Netze und Deep Learning.
      In mehreren Jahren war er der Informatiker, dessen Arbeiten am meisten wissenschaftliche Beachtung fanden (gemäß h-Index).

      Bengio warnt auch auf seiner Webseite und in sozialen Medien vor dem Risiko, das mit der Entwicklung von AGI (artificial general intelligence), Künstlicher allgemeiner Intelligenz, und dann künstlicher Superintelligenz verbunden ist, und fordert, dass sich die Staaten hierauf vorbereiten. Siehe z.B.

      yoshuabengio.org/2024/07/09/re…king-ai-safety-seriously/

      t3n.de/news/nicht-in-den-abgru…ophen-verhindern-1639755/

      Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von Manni5 ()

    • Danke.
      Vielleicht sollte man nicht nur zitieren, sondern die wichtigsten Punkte der conclusio Seite 85 zusammenfassen:
      • Nix genaues weiß man nicht
      • AI kann positiv oder negativ genutzt werden
      • Die Experten sind sich nicht einig
      • Die Zukunft ist ungewiss
      Das ist wenigstens ehrlich. Und zeigt, dass es - zum Glück- nicht nur Claquere des KI-Hypes gibt. Vgl auch jüngste Einschätzung Linus Thorvalds.
      Ist aber insgesamt nichts, was man so nicht schon bei vielem Neuen gehört hätte.
      Dann schauen wir mal, welche Teile der KI-Sau in drei bis fünf Jahren durch das digitale Dorf getrieben werden, oder ob die Wutz bis dahin (erneut) geschlachtet wurde.
    • Ein Übersichtsartikel zu Anwendungen von KI in der Medizin:

      b-rayz.com/de/ki-in-der-medizin-beispiele/

      KI fungiert als Assistenz oder zweiter Berater. Die große Stärke der selbstlernenden, bahnbrechenden Technologie liegt in der schnellen und effizienten Verarbeitung und Auswertung hoch komplexer Datensätze.

      Beispiele (Überschriften) aus obigem Artikel:

      Verbesserte Lungenkrebs-, Brustkrebs- oder Hautkrebs-Diagnose
      Mit Netzhaut-Scans kardiovaskuläres Risiko voraussagen
      KI-gestützte medizinische Frühwarnsysteme für epileptische Anfälle
      Multiorgan-Monitoringsysteme für die Intensivstation
      Vorhersage von Antibiotika-Resistenzen mithilfe medizinischer KI
      KI-basierte Medikamenten-Entwicklung
      Personalisierte Krebstherapie
    • Hier sind Videos von DeepMind, die zeigen, das ihre Roboter etwa auf dem Niveau von Amateuren Tischtennis spielen können:

      sites.google.com/view/competitive-robot-table-tennis

      Die dazugehörige wissenschaftliche Arbeit (arXiv-Preprint) von Aug. 2024:

      arxiv.org/pdf/2408.03906

      Laut Artikel ist dies der erste Roboter, der in der Lage ist, eine Sportart mit Menschen auf menschlichem Niveau zu spielen.

      (Kleine Anmerkung: Schach wird hierbei offenbar ausgeschlossen ...)
    • Unter 53) wurde auf den immensen Stromverbrauch Künstlicher Intelligenz verwiesen. In der Tat, KI ist keineswegs nur voraussetzungsloses Bildschirmgeflacker auf der Basis eines Python-Codes, sondern verfügt über harte materielle Grundlagen; die Bearbeitung einer Anforderung an ChatGPT 4 verbraucht etwa das zehnfache an Energie einer Beantwortung einer Frage an Google. Die Algorithmen laufen in speziellen Rechenzentren, die als Teil der digitalen kritischen Infrastruktur betrachtet werden können. Diese Rechenzentren gleichen sterilen Hochsicherheitstrakten, sie stehen vielfach in kälteren Weltgegenden; ihr Stromverbrauch ist bereits jetzt so hoch, dass einzelne kommerzielle Betreiber wie Microsoft oder Google auf Atomstrom setzen, um die Anlagen ohne Ausfallzeiten nutzen zu können.

      rnd.de/wirtschaft/stromverbrau…RY55BDRP6UDJ2OKPZCNY.html
      nzz.ch/wissenschaft/ki-boom-tr…d-reaktivieren-ld.1850532
      google.com/intl/de/about/datacenters/locations/hamina/
      bitkom.org/sites/main/files/20…enzentren2023PKCharts.pdf
    • DeepMind-Forscher haben eine sog. "Habermas-Maschine" entwickelt,
      ein Programm, dass als Vermittler bei Gruppendiskussionen fungieren kann,
      und dies mit menschlichen Mediatoren verglichen.

      Aus der Kurzzusammenfassung der Beschreibung von DeepMind (übersetzt mit DeepL):

      "Die Teilnehmer (N = 5734) zogen die von der KI generierten Aussagen den von menschlichen Mediatoren verfassten vor und bewerteten sie als informativer, klarer und unparteiischer. Die Diskutanten aktualisierten ihre Ansichten oft nach der Beratung und kamen zu einer gemeinsamen Perspektive. Die Texteinbettung zeigte, dass erfolgreiche Gruppenerklärungen abweichende Stimmen einschlossen und gleichzeitig die Mehrheitsposition respektierten."

      deepmind.google/research/publications/65220/

      Die Publikation in der Zeitschrift "Science", Okt. 2024:

      science.org/stoken/author-tokens/ST-2196/full

      Einer der Science-Editors schrieb hierzu eine kurze Besprechung.
      Auszüge hieraus (übersetzt mit DeepL):

      "Die Autoren trainierten ein großes Sprachmodell, die sogenannte Habermas-Maschine, als KI-Mediator, der kleinen Gruppen im Vereinigten Königreich half, eine gemeinsame Basis zu finden, während sie über kontroverse politische Themen wie Brexit, Einwanderung, Mindestlohn, Klimawandel und allgemeine Kinderbetreuung diskutierten. Im Vergleich zu menschlichen Mediatoren produzierten die KI-Mediatoren schmackhaftere Aussagen, die zu einer breiten Zustimmung führten und die Gruppen weniger gespalten zurückließen. Die Aussagen der KI waren klarer, logischer und informativer, ohne die Sichtweisen von Minderheiten zu entfremden. Diese Arbeit hat politische Auswirkungen auf das Potenzial von KI, tief gespaltene Gruppen zu vereinen. -Ekeoma Uzogara "

      PS Zur DeepMind-Übersetzung "schmackhaftere Aussagen" (s.o.) :) :
      Das Originalwort im Text ist "more palatable". Eine bessere Übersetzung wäre hier wohl etwas in Richtung "ansprechendere Aussagen".
      Habe dies aber stehen gelassen, da es auch zum Thema KI passt ...

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von Manni5 ()

    • Wozu sind KI-gesteuerte Roboter bisher in der Lage?
      Neue Entwicklung bei DeepMind:

      Zwei KI-gesteuerte Roboter haben es erstmals geschafft, einen Knoten in Schuhschnürsenkel zu binden, ein T-Shirt auf einen Kleiderbügel zu hängen.
      Dafür braucht man zwei Arme/Hände; bisher ging alles nur einarmig. Siehe

      deepmind.google/discover/blog/advances-in-robot-dexterity/

      Weitere Videos:

      aloha-unleashed.github.io/

      Ein Preprint:

      aloha-unleashed.github.io/assets/aloha_unleashed.pdf

      Die Autoren sagen (an anderer Stelle): es dauert noch lange, bis wir evtl. einen Roboter haben, der zu Hause helfen kann. Das zeigt die Schwierigkeit. Daher sind bereits solche "kleinen Schritte" Meilensteine.