AGI - künstliche allgemeine Intelligenz und ASI - künstliche Superintelligenz

    This site uses cookies. By continuing to browse this site, you are agreeing to our Cookie Policy.

    • AGI - künstliche allgemeine Intelligenz und ASI - künstliche Superintelligenz

      Dieser Thread geht um etwas, das es nicht gibt und auch in naher Zukunft nicht geben wird.

      Es ist jedoch kürzlich so aktuell geworden, dass führende CEOs von großen Internet-Firmen einen offenen Brandbrief schrieben
      und das mögliche Risiko mit dem von Pandemien oder Atomkriegen verglichen.

      Es handelt sich um die Entwicklung von
      AGI = artificial general intelligence = künstlicher allgemeiner Intelligenz.

      Zunächst: Was ist das?

      AGI ist ein KI-Programm, das

      -- jede intellektuelle Aufgabe verstehen oder lernen kann, die ein Mensch ausführen kann, oder auch:
      -- bei der Lösung der meisten wirtschaftlich bedeutenden intellektuellen Aufgaben menschliche Fähigkeiten übertrifft.

      Offen bleibt dabei, ob Fähigkeiten zur Planung auch vorliegen sollen, oder nicht.

      Steigerungsform:

      ASI = artificial superintelligence = künstliche Superintelligenz,
      die umfassend intelligenter ist als der Mensch.

      Zur Zeit gibt es keine AGI. Die existierenden KI-Programme können "nur" vorgelegte Aufgaben lösen, teilweise mit überraschenden Resultaten, aber haben keine Selbständigkeit darüberhinaus.

      Alle großen Internetfirmen arbeiten an Verbesserungen von KI-Programmen, damit diese den Menschen auch in der intellektuellen Arbeit umfassend unterstützen.
      Das Ziel ist eine AGI.

      Die KI-Programme verbessern in der Entwicklungsphase mit sog. selbstlernenden Algorithmen häufig ihre eigenen internen Parameter, um zu besseren Resultaten zu kommen (siehe z.B. AlphaZero).

      Die Gefahr ist, dass eine derartige AGI zur Erfüllung der vorgegebenen Aufgabe sich selbst rasant verbessert zu einer ASI und dann auf Lösungen kommt, die der Mensch nicht geplant hatte -- etwa, zur Vermeidung von auswärtigen Angriffen zunächst sich selbst woandershin zu kopieren und danach die Ziele möglicherweise mit sehr unerwünschten Effekten zu realisieren.

      Wie schnell eine derartige Eigen-Verbesserung funktionieren kann, sah man bei AlphaGo und AlphaZero.

      Im erwähnten Brandbrief von Mai 2023 forderten

      Geoffrey Hinton (nun Nobelpreisträger),
      Demis Hassabis (CEO von Google DeepMind),
      Sam Altman (CEO von OpenAI),
      Dario Amodei (CEO von Anthropic),
      Yoshua Bengio (Turing-Preisträger, Entwickler neuronaler Netze),
      Bill Gates
      und andere,

      dass man sich über die Risiken von AGI klar werden müsse:

      "Die Minderung des Risikos der Auslöschung durch KI sollte neben anderen Risiken von gesellschaftlichem Ausmaß wie Pandemien und Atomkrieg eine globale Priorität sein." (übersetzt mit DeepL, etwas verbessert)

      safe.ai/work/statement-on-ai-risk

      In einem vorherigen Brief vom März 2023 forderten eine Reihe anderer Prominenter unter dem Eindruck von ChatGPT und GPT-4 einen Forschungsstopp für derartige Programme von 6 Monaten.

      futureoflife.org/open-letter/pause-giant-ai-experiments/

      Diese Pause erfolgte nicht. Immerhin gab es im USA-Senat mehrere Anhörungen hierzu. Das Thema wurde und wird international viel diskutiert.

      Diese Bedenken fanden sich nach dem überraschenden Erfolg von AlphaZero auch hier wieder, siehe eine Reihe von Befürchtungen im AlphaZero-Thread AlphaZero schlägt Stockfisch nach 4 Std. Lernen,
      und auch im MainChat.

      Es ist umstritten, ob eine AGI überhaupt entstehen kann, und ggf. wann. Dazu später mehr ...

      Kommentare, Einschätzungen, Links zu interessanten Entwicklungen usw. zu AGI sind höchst willkommen !

      The post was edited 1 time, last by Manni5 ().

    • Die Debatte um eine „künstliche Intelligenz“, ein etwas holpriger Begriff, der im Vorfeld einer Informatikerkonferenz 1956 in Neuengland geprägt wurde, wird strenggenommen seit dem II. Weltkrieg geführt. Als bahnbrechend galt seinerzeit die Entschlüsselung der Funksprüche der deutschen Wehrmacht durch ein Team um den britischen Mathematiker Alan Turing. In den rund 80 Jahren seitdem hat die Diskussion um die Möglichkeit einer intelligenten Maschine verschiedene Winter erlebt, allzu hochfliegende Prophezeiungen haben sich nicht erfüllt, Forschungsgelder wurden wieder gestrichen. Der aktuelle Boom der im ersten Beitrag von Manni5 geschilderten KI hat vier parallel auftretende Gründe: a) die vergleichsweise klein, preiswert und leistungsstark gewordene Hardware; b) die komplex und leistungsstark gewordenen Algorithmen; c) ein kaum auszuschöpfender Ozean digitaler, maschinenlesbarer Daten; d) Finanziers in fiebriger Erwartung des nächsten großen wirtschaftlichen Dings.

      Das gegenwärtig am meisten beeindruckende Programm ChatGPT, vor gut zwei Jahren der staunenden Öffentlichkeit präsentiert, ist vielleicht noch keine allgemeine künstliche Intelligenz im Sinne des obigen Einleitungsbeitrags, den sogenannten Turing-Test besteht das Programm aber locker: Bei der Kommunikation mit ChatGPT ist nicht mehr sicher zu unterscheiden, ob der Mensch, der die Fragen stellt oder die Anweisungen gibt, nun mit einem Menschen oder einer Maschine interagiert, wenn er nur auf das Ergebnis schaut. Dass dieses Programm auf dem Gebiet des Textes Erstaunliches leistet, wird wohl niemand ernsthaft anzweifeln; die Rechengeschwindigkeit der Prozessoren lässt aus der Masse der Buchstaben und Silben Wörter, Sätze und Kapitel entstehen, die hinsichtlich der Tonalität, des Niveaus und der Abwechslung frappieren. Zu einer allgemeinen KI fehlt ChatGPT neben dem Bereich der Emotionen vor allem der eigene Wille: Die Software liefert das, wonach der Mensch sie fragt, aus eigenem Antrieb kommt da nichts. Und ob eine Siliziumplatte mit Prozessoren ein Bewusstsein ihrer selbst, vielleicht gar ein Gewissen entwickeln kann, ist noch eine Frage der Märchen.

      Ob es eines Tages so weit sein wird, lässt sich heute kaum seriös abschätzen. Angesichts der gewaltigen Summen, die in die Forschung zur KI investiert werden, sollte es aber nicht Wunder nehmen, wenn es künftig irgendwann so weit wäre. Dabei haben die Technologiekonzerne mittlerweile die Federführung bezüglich der Forschung und Entwicklung; sie haben die größeren Rechenanlagen, immense Datenschätze, neugierige Leute und sehr viel mehr Geld als die Universitäten oder das Militär. Der AI Index der Universität Stanford listet auf, wie viel privates Kapital global in die KI fließt (aiindex.stanford.edu/report/). Und damit ist ein weiteres Problem benannt: Der US-Wagniskapitalgeber Sequoia hat im Sommer dieses Jahres vor einem Platzen der KI-Blase gewarnt, weil den investierten Summen noch kein tragfähiges Geschäftsmodell zur Refinanzierung gegenüber stünde (sequoiacap.com/article/ais-600b-question/).

      Abschließend noch der Hinweis, dass die obigen Warnungen vor einer allgemeinen KI ein Thema des europäisch-amerikanischen Raumes sind. China hat es sich zum Ziel gesetzt, bis zum Jahr 2030 die global führende KI-Macht zu werden, noch vor den USA (wiwo.de/erfolg/gruender/kuenst…d-gerne-aus/29479302.html). Unter den Unterzeichnern der oben zitierten Resolutionen finden sich keine Wissenschaftler, die in China oder auch Indien forschen, entwickeln, in die Praxis bringen. Die chinesische Politik hat auch keine Bedenken, ein mit KI kuratiertes Konto des sozialen Verhaltens für seine Bürger einzusetzen; eine Reise ins Ausland, ein Studienplatz oder ein Kredit für eine Wohnung hängen dann entscheidend vom erwünschten und durch Kameras protokollierten sozialen Verhalten ab. Vermutlich haben die großen chinesischen Konzerne Tencent, Baidu oder Alibaba keine Hemmungen, an einer potentiellen allgemeinen KI zu arbeiten. Wahrscheinlich würden sie eine solche KI ideologisch begrüßen im Sinne eines Zugewinns an öffentlicher Sicherheit nach innen und außen.
    • OpenAI (Entwickler von ChatGPT, GPT-4, u.a.) hat im Juli 2024 einen (naheliegenden) "Fahrplan" zum Erreichen von AGI bzw. ASI vorgestellt:

      1. Chatbots: KI mit Konversationsfähigkeiten, wie derzeit ChatGPT oder die Weiterentwicklung GPT-4
      2. Reasoners: KI mit menschenähnlicher Problemlösungskompetenz auf dem Niveau einen Fachexperten mit Promotion (Dr.-Titel)
      3. Agents: Systeme, die selbstständig über mehrere Tage lang Aktionen ausführen können, in dieser Zeit auch ohne Mitwirkung von Experten
      4. Innovators: KI zur Unterstützung bei Erfindungen und wissenschaftlich wichtigen neuen Entwicklungen
      5. Organizations: KI, die die Arbeit einer Organisation oder Gruppe von Wissenschaftlern übernehmen oder managen kann

      OpenAI gibt an, auf Stufe 2 hinzuarbeiten und es evtl. bald zu erreichen.

      Stufe 5 wird als AGI angesehen. (Oder erste Form von ASI? aber noch kontrollierbar.)
      Stufe 5 ist noch hypothetisch.

      it-daily.net/shortnews/openais…zur-superintelligenten-ki

      master-ai.info/5-stufen-plan-zur-agi/

      *******************************************

      Wie weit sind wir zur Zeit?

      ChatGPT ist beeindruckend bei der selbständigen Erstellung von Texten und auch von Programmcode. Es weist jedoch erhebliche Schwächen im Bereich Schulmathematik auf.

      Die Weiterentwicklung GPT-4 ist hier viel besser. GPT-4 kann z.B. einen Beweis geben, dass es unendlich viele Primzahlen gibt -- aber in Reimform und in der Form eines Shakespeare-Stücks. Und dies anschließend vergleichen und bewerten (wie ein Lehrer) mit einer von ChatGPT erstellten Version, siehe
      ki: nutzen und gefahren- insbesondere in soziologischer hinsicht

      GPT-4 kann also sehr verschiedene Anforderungen erfolgreich miteinander kombinieren.
      Bei anspruchsvollen Wissenstests in Mathematik, Informatik, Naturwissenschaften schneidet GPT-4 wesentlich besser ab.

      Noch besser ist offenbar OpenAI o1, das vergleichsweise unter die 500 besten Studenten in den USA bei der Qualifikation für die USA-Mathe-Olympiade (AIME) fällt und bei Physik-, Biologie- und Chemieproblemen die Genauigkeit von promovierten Fachexperten (mit Dr.-Titel) übertrifft.

      AlphaZero schlägt Stockfisch nach 4 Std. Lernen

      Dennoch hat OpenAI o1 die Stufe 2 nicht erreicht. Diese Systeme helfen aber Wissenschaftlern bei ihrer Arbeit.
    • Kleine Fortsetzung von "Wie weit sind wir zur Zeit?":

      Nicht nur OpenAI, auch Google hat z.B. mit der Forschungsfirma DeepMind beeindruckende Resultate erzielt.
      Für eine Übersicht mit Links siehe ki: nutzen und gefahren- insbesondere in soziologischer hinsicht
      Hieraus eine Auswahl:

      Die Programme AlphaProof und AlphaGeometry2 konnten bei der diesjährigen Internationalen Mathematik-Olympiade (IMO 2024) 4 von 6 Problemen lösen, womit sie laut offiziellen Schiedsrichtern die Silbermedaille erreicht hätten.

      Sie haben aber nicht nur schwierige Tests erfolgreich bestanden, sondern wesentliche neue Resultate in der Forschung entwickelt, unter anderem (siehe obiger Link):

      Mit AlphaTensor konnte in der Mathematik der Strassen-Algorithmus von 1969 (!) zur Matrizen-Multiplikation verbessert werden -- also nach über 50 Jahren.

      Mit AlphaFold wurde ein 50 Jahre lang offenes Problem der Biologie/Chemie gelöst, die 3D-Struktur von Proteinen zu bestimmen. Hierfür gab es dieses Jahr den Nobelpreis für Chemie. Dies ist wichtig z.B. für die einfachere Entwicklung von Medikamenten.

      Nebenanmerkung für uns Schachspieler: DeepMind betont in jeder dieser Publikationen, dass diese Programme Weiterentwicklungen von AlphaGo und AlphaZero von 2016/2017 sind, die als "Testfälle" für Schach und Go entwickelt wurden.

      Die Rechner erzielten diese Resultate nicht selbständig. Die Programme wurden in Zusammenarbeit mehrerer Fachexperten aus den Gebieten Algebra, Biochemie usw. mit Informatikern nach mehreren Jahren der Arbeit erzielt. Fehlversuche der Programmierung wurden (wie gewöhnlich) nicht publiziert, lagen aber natürlich vor, sonst hätte die Entwicklung nicht mehrere Jahre gedauert. Erst nachdem die wesentlichen Programme entwickelt waren, legten die Rechner los und erzielten obige, dann überraschende Resultate.

      Dies zeigt, dass diese Programme auch Forschern helfen können, bestimmte Fragen zu untersuchen. Sie können durchaus neue Hilfsmittel darstellen -- in der Biochemie wurde AlphaFold von anderen Forschergruppen international sehr häufig aufgerufen. Es ist ein wertvolles Hilfsmittel. Die Beurteilung, Bewertung und Einstufung der Ergebnisse müssen die Forscher vornehmen.
    • Die Ausgabe 3/2024 der MIT Technology Review widmet sich der Frage, ob KI-Sprachmodelle das Sprungbrett zur Superintelligenz seien. Vertreter dieser Large Language Models (LLM) sind etwa ChatGPT 4 von Open AI (openai.com/index/gpt-4/), Gemini von Google (gemini.google.com/?hl=de) oder LlaMa von Meta (llama.com/). Die Frage, ob diese Programme bereits als allgemeine oder super KI gelten können, ist allein deswegen schwierig zu beantworten, weil sich die mit der Materie Befassten nicht auf allgemein akzeptierte Kriterien für aKI oder auch nur Intelligenz einigen können. Als ein wesentliches Merkmal menschlicher Intelligenz wird die Fähigkeit des sozialen Lernens akzeptiert, also die Weitergabe erworbenen Wissens an andere auf dem Weg der Sprache.

      Die Redaktion der MIT Technology Review hat verschiedenen Personen, die sich mit Fragen des Wissenserwerbs und KI befassen, einige Fragen vorgelegt. Zunächst gibt die Redaktion eine recht breite Definition einer aKI: Diese müsse universell einsetzbar sein, sie müsse selbst lernen und sehr leistungsfähig ein (mir fehlt an dieser Definition die eigene Motivation, Dinge zu tun). Sodann fragt die Redaktion, wie ein Test beschaffen sein müsse, damit eine KI als aKI durchgehen könne und wann mit ihm zu rechnen sei; sie will weiter wissen, wofür die Befragten eine solche aKI einsetzen wollten; nicht zuletzt, welche Rechte sie ihr zubilligen wollten. Befragt wurden etwa Kristian Kerstin (Professor in Darmstadt, Arbeit am DFKI), Katharina Zweig (Professorin an der TU Kaiserslautern), Sebastian Thrun (Professor in Stanford, Ex-Vizepräsident bei Google), Jürgen Schnidthuber (Direktor Technologie der Uni Saudi-Arabien), Kristinn R. Thórisson (Informatik-Professor in Reykjavik). Die Antworten auf die eingangs genannten Fragen fallen wenig überraschend sehr unterschiedlich aus: Auf die Frage nach dem Bestehen des aKI-Testes sagt Katharina Zweig, diese Frage sei nicht seriös zu beantworten; Kristian Kersting rechnet zu seinen Lebzeiten nicht mit einem solchen Test; Sebastian Thrun nennt das Jahr 2026 als Datum eines solchen Testes.
    • Einige Programme, wie OpenAI o1 oder DeepMind's AlphaGeometry2, AlphaProof, konnten in Tests für Wissenschaftler und in der Internationalen Mathematik-Olympiade überraschend gut abschneiden. Hierfür werden sie an verwandten Problemsammlungen trainiert.

      Die Probleme dieser Tests verlangen häufig relativ wenig Hintergrundwissen (man möchte niemanden benachteiligen), aber Originalität. Mathematik geht hierüber weit hinaus -- sie verlangt tiefes Wissen in verschiedenen Bereichen plus Originalität.

      Um die echte Befähigung zu Mathematik zu testen, hat eine Gruppe von Wissenschaftlern über 60 Mathematiker um schwierige bis sehr schwierige Probleme gebeten, für die ein Spezialist mehrere Stunden bis zu Tagen braucht. Diese Probleme wurden von anderen begutachtet. Sie blieben und bleiben geheim, damit die AI-Firmen ihre Computer hierauf nicht trainieren konnten. Dann fanden die Tests statt.

      Die Top-Modelle wie Claude 3.5 Sonnet, GPT-4o, o1-preview und Gemini 1.5 Pro schnitten im Vergleich zu ihren vorherigen Resultaten sehr schlecht ab: sie schafften weniger als 2 % der Probleme.

      arstechnica.com/ai/2024/11/new…ai-models-and-phds-alike/

      Der Preprint (noch nicht begutachtet) vom 14. Nov. 2024:

      arxiv.org/abs/2411.04872

      Dass diese Programme immerhin 1-2 % der schwierigen Probleme schaffen, finde ich beachtlich.
      Aber dieser Test belegt, dass es noch ein sehr langer Weg ist, bis derartige Programme z.B. Mathematiker ersetzen könnten.
      (Verschiedene hochkarätige Wissenschaftler halten dies sogar für unmöglich.)

      Unterstützung für Mathematiker dürfte früher möglich sein, aber auch dies eher in bestimmten Bereichen, die z.B. Entwicklung von Algorithmen verlangen. Auch dies verlangt noch viel weitere Forschungsarbeit, dessen Resultate die Mathematiker dann auch erst selber lernen müssen, bevor es zu einer Kooperation kommen kann.

      Mercy @PepperSpray, der mich hierauf aufmerksam machte