AGI - künstliche allgemeine Intelligenz und ASI - künstliche Superintelligenz

    This site uses cookies. By continuing to browse this site, you are agreeing to our Cookie Policy.

    • Manni5 wrote:

      ChatGPT formuliert die Antworten auf meine Fragen selbständig.

      Selbständig handeln kann ChatGPT darüberhinaus nicht.
      Das muss es auch nicht, denke ich.

      Eine "K.I." handelt selbständig in dem für sie geschaffenen Rahmen, glaube ich.

      Wenn nun also einer "K.I." gesagt wird (darauf trainiert wird): "Handele diese ministerialen Entscheidungen selbständig ab!", dann ist dies absolut kein Science-Fiction-Szenario mehr sondern bereits technisch mögliche Realität, behaupte ich mal.

      Deswegen ist es so wichtig darauf zu achten, welche Wahl wir treffen, da bestimmte Repräsentant:innen darauf hinarbeiten werden "K.I."-geführte Ministerien (und andere Institute) zu schaffen, könnte ich mir vorstellen.

      Dafür muss es keine AGI sein, dafür reicht ein trainierbares LLM, meine ich.

      Manni5 wrote:

      Ich denke, das Programm Diella kann vorgegebene Verwaltungsprozedere und Routinen überprüfen [...] aber nicht als "Minister" agieren.
      Deine Prognose wird ja nun vielleicht überprüft. Mal schauen, wie es weitergeht.

      The post was edited 1 time, last by din ().

    • din wrote:



      Wenn nun also einer "K.I." gesagt wird (darauf trainiert wird): "Handele diese ministerialen Entscheidungen selbständig ab!", dann ist dies absolut kein Science-Fiction-Szenario mehr sondern bereits technisch mögliche Realität, behaupte ich mal.

      Hast Du irgendwelche Referenzen oder Belege, die für Deine Aussage sprechen?

      Ich denke, dies ist zur Zeit technisch nicht möglich, allenfalls das Überprüfen von Verwaltungsprozedere.

      Eine LLM geht abgespeicherte Versionen des Internets durch, hat aber keine Strategien für komplexe Entscheidungsfragen.
      Das Finden von Strategien wird derzeit weiter am DeepMind Research-Institut in UK erforscht
      (siehe mein vorheriger Post), und zwar zunächst noch an komplexen Spielen.

      Ein weiterer Grund: Microsoft und OpenAI hatten eine Diskussion, wann OpenAI sagen kann,
      dass sie eine AGI entwickelt haben (das hätte vertragliche wirtschaftliche Konsequenzen).
      Da eine genaue Definition von AGI schwierig ist, einigten sie sich auf ein einfaches finanzielles Kriterium:
      Eine AGI ist entwickelt, sobald diese einen Profit von mindestens 100 Milliarden Dollar erzeugt.

      Davon ist OpenAI weit entfernt: für 2024 wurde für OpenAI ein Verlust von 5 Milliarden Dollar erwartet.

      heise.de/en/news/General-artif…a-price-tag-10220909.html

      Und ministeriale Entscheidungsfragen sind noch mal Stufen komplexer.
    • Manni5 wrote:

      Hast Du irgendwelche Referenzen
      Aus der von Meffi verlinkten Quelle:

      "[...] „Diella“ wurde bislang als digitaler Chatbot auf staatlichen Seiten eingesetzt. [...]

      Dass ein KI-Wesen administrative Entscheidungen treffen soll, halten Experten und die Opposition für bedenklich. [...]" ... also nicht für unmöglich sondern für bedenklich.

      https://www.srf.ch/news/international/empoerung-bei-der-opposition-ki-chatbot-diella-als-neue-ministerin-albaniens wrote:

      [...] Rein technisch wären heutige KI-Systeme aber in der Lage, eng umrissene Aufgabenkataloge zu übernehmen [...]
      Keine Ahnung, wie seriös der SRF ist.

      Aber stimmt schon. Bis zur Letztentscheidung durch eine "K.I." wird es wohl noch etwas dauern:

      https://media.ccc.de/v/2024-381-besser-natrlich-dumm-als-knstlich-intelligent-ber-generative-ki-sie-werden-enttuscht-sein wrote:

      [...] Algorithmen schreiben Quellcode, komponieren Musikstücke, verfassen wissenschaftliche Artikel. [...] KI versucht zu "gefallen", wie ein Schüler, der versucht, auf eine Frage, die er nicht beantworten kann, eine plausible Antwort zu geben, die seinem Lehrer gefällt. Die KI kümmert sich nicht um ethische oder rechtliche Fragen. Wenn sie nicht "gezähmt" wird, kann sie zu einer Gefahr werden, die nicht mehr kontrolliert werden kann. Generative KI kann Existenzen zerstören - sei es durch "halluzinierte Informationen über Menschen", sei es im militärischen Bereich, wo sie bereits eine weitaus größere Rolle spielt als angenommen. Generative KI optimiert nicht nur Logistik- und Produktionsprozesse. Generative KI kann auch die militärische Strategieplanung übernehmen und militärische Operationen steuern, von Sabotageakten bis hin zur eigenständigen Auswahl von Zielen und der Wahl geeigneter Waffensysteme. Auch in der Wirtschaft tragen Algorithmen zunehmend zu Geschäftsentscheidungen bei. Von automatisierten Bewerbungsverfahren bis hin zu Portfoliostrategien und Marketingkampagnen.
      [...] noch trifft der Mensch die letzte Entscheidung - aber wie lange noch?
      Der Referent wird versuchen, anschaulich zu erklären, warum generative KI weder intelligent noch kreativ ist und warum Algorithmen zwar die Rolle des Co-Piloten, sogar des Autopiloten, aber niemals die Rolle des Flugkapitäns übernehmen können.
      Allerdings: Wenn die das alles jetzt schon können, wie lange wird es dann wohl noch dauern für "einfache" ministeriale Entscheidungen?

      https://media.ccc.de/v/c4.openchaos.2024.06.kuenstliche-intelligenz wrote:

      In dieser umfassenden Einführung werden wir die grundlegenden Fragen klären:
      Was ist KI?
      Woher kommt sie?
      Wie funktioniert KI eigentlich?
      Wie funktionieren Large Language Models?
      Was sind die Risiken von KI?
      Was bringt KI in der Zukunft?
      Von den historischen Meilensteinen bis hin zu den modernen großen Sprachmodellen wie GPT-4 werden wir die Entwicklungen und das Potenzial der KI durchleuchten. Wir werden nicht nur die technische Seite beleuchten, sondern auch einen Blick in die Zukunft werfen: Was kann KI in den kommenden Jahren für unsere Gesellschaft leisten?
    • Es kommen Fragen auf, ob der KI-Hype und der Bau riesiger Rechenzentren,
      sogar mit Anlagen zur eigenen Energieversorgung, wirtschaftlich gesehen eine Blase ist, die bald (?) platzt.

      "Laut einer Analyse des MIT können 95 Prozent aller befragten Organisationen keine messbare Rendite aus ihren KI-Investments ziehen."

      Dies und mehr Details in:

      n-tv.de/wirtschaft/Der-KI-Hype…lase-article26071975.html

      Habe ChatGPT gefragt: Werden sich die Investitionen in neue KI-Rechenzentren wirtschaftlich lohnen?

      Antwort von ChatGPT:

      "Das ist eine ausgezeichnete und komplexe Frage — und die Antwort hängt stark davon ab,
      welche Art von KI-Rechenzentrum, welches Geschäftsmodell und welchen Zeithorizont man betrachtet."

      [...]

      "5. Fazit (Stand 2025)

      Kurz- bis mittelfristig (2025–2028):
      Investitionen in KI-Rechenzentren lohnen sich sehr wahrscheinlich,
      solange Nachfrage, GPU-Knappheit und Softwareexplosion anhalten.

      Langfristig (ab 2029):
      Die Rendite wird stark variieren. Anbieter mit nachhaltiger Energieversorgung, effizienter Architektur und Integration in KI-Ökosysteme (OpenAI, Anthropic, Google DeepMind, etc.) werden bestehen.
      Andere riskieren eine Überkapazitätskrise ähnlich wie im Telekom- oder Cloud-Sektor vergangener Jahrzehnte."

      ********

      Die Hoffnung war, dass die schnelle und unglaublich erfolgreiche Entwicklung weiter geht und zu AGIs führt.
      Aber mir scheint, nun ist mit der LLM-Nutzung des Internets eine Schranke erreicht,
      und die Verwendung von Expertenwissen wird wichtiger.
      Das verlangt aber natürlich die Mitwirkung dieser Experten -- damit dauern weitere Verbesserungen länger.
    • Wie oben dargestellt AGI - künstliche allgemeine Intelligenz und ASI - künstliche Superintelligenz,
      hat DeepMindResearch mit Googles KI Gemini 2.5, aufgewertet durch DeepThink,
      bei der Internationalen Mathematik-Olymiade IMO im Juli Resultate erzielt, die einer Goldmedaille entsprechen.

      Nun haben sie auch am internationalen Programmierwettbewerb
      International Collegiate Programming Contest World Finals (ICPC 2025) teilgenommen.

      Teilnehmer waren fast 140 Teams aus über 50 Ländern, die sich über vorherige Wettbewerbe qualifizieren mussten.
      Während die IMO-Teilnehmer exzellente Schüler sind, aber keine Studenten sein dürfen,
      sind beim ICPC auch Studenten zugelassen.
      Der ICPC gilt als der weltweit angesehenste Programmierwettbewerb auf Universitätsniveau.

      Von den 139 Teams erreichten nur 4 Teams die Goldmedaille.

      Eine aufgewertete Version von Gemini 2.5 Deep Think hat auch hierbei wieder Goldmedaillen-Resultate erzielt.
      Es hätte sogar Rang 2 entsprochen.
      Dabei lösten sie auch ein Problem, das keines der offiziellen Teilnehmerteams lösen konnte.

      Eine Besprechung:

      deepmind.google/discover/blog/…ing-contest-world-finals/

      Offenbar hat OpenAI's GPT-5 (mit einer Aufwertung, über die wenig bekannt ist) sogar alle Probleme gelöst,
      hätte damit noch besser abgeschnitten als Gemini 2.5 Deep Think.

      venturebeat.com/ai/google-and-…tition-show-enterprise-ai

      siliconangle.com/2025/09/17/op…ores-icpc-coding-contest/

      The post was edited 2 times, last by Manni5 ().

    • Wie beschrieben, ist der Weg zu AGI oder gar ASI noch sehr lang.

      Mathematik ist hierfür grundlegend, da mit Mathematik die Gesetze der Physik bis zur Logik der Informatik exakt beschrieben werden können.

      Google und Google's Tochterfirma DeepMind Research haben nun eine
      "KI für Mathematik"-Initiative (AI for Math initiative) gegründet.

      Ihr gehören 5 weltführende Institutionen an:

      - Imperial College London (UK)
      - Institute for Advanced Study (Princeton, USA)
      - Institut des Hautes Études Scientifiques (Frankreich)
      - Simons Institute for the Theory of Computing (UC Berkeley)
      - Tata Institute of Fundamental Research (Mumbai, Indien)

      Das Ziel ist herauszufinden, welche mathematischen Probleme mit Hilfe von KI bearbeitet werden können.

      DeepMind Research stellt diesen Institutionen ihre top-KIs zur Verfügung,
      inkl. Gemini Deep Think, AlphaEvolve und AlphaProof,
      und Google gibt Geld (wie viel, wurde nicht bekannt gegeben).

      blog.google/technology/google-deepmind/ai-for-math/?
    • https://media.ccc.de/v/2025-11-15-erklarbare-ki-3a-warum-und-wie-3f wrote:

      Erklärbare KI: Warum und wie?

      Warum man in neuronale Netze hineinschauen sollte und wie es geht.

      Neuronale Netze (DNNs) wie ChatGPT findet man dank ihrer guten Performanz inzwischen in vielerlei Bereichen, nicht nur im privaten sondern auch in ethisch relevanten Anwendungsgebieten wie medizinische Diagnostik und autonomem Fahren. Gleichzeitig werden Stimmen laut, dass die Entscheidungen von DNNs nachvollziehbar, und die genutzte KI „transparent“ sein müssen – inzwischen sogar teils gesetzlich vorgeschrieben. Aber was heißt das eigentlich, warum ist das tatsächlich wichtig und sinnvoll, und wie kann man das schon heute angehen?

      In diesem Vortrag gehen wir diesen Fragen auf den Grund: Nach einem Crash-Kurs zu DNNs und deren Eigenschaften, leiten wir ab, was so alles bei DNN-basierten Entscheidungen schief gehen kann. Danach stelle ich beispielhaft Methoden aus meinem Forschungsbereich vor, der Erklärbaren Künstlichen Intelligenz. Die erlauben es, in DNNs hineinzuschauen und gelerntes sowie deren Entscheidungen besser nachzuvollziehen. Auch wenn es noch ein langer Weg zur adäquat transparenten künstlichen Intelligenz ist, soll der Ausflug dabei helfen, angemesseneres Vertrauen (also weder zu wenig aber auch nicht zu viel) in aktuelle DNN-basierte Anwendungen zu entwickeln. Und vielleicht lässt sich der eine oder die andere auch dazu inspirieren, selbst DNNs in Zukunft auf den Zahn zu fühlen. [...]