ki: nutzen und gefahren- insbesondere in soziologischer hinsicht

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

    • Sorge um Automation im Krieg
      Wenn eine KI die Atombombe zündet



      "Am 26. September 1983, kurz nach Mitternacht, rettete Stanislaw Petrow vermutlich die Welt. Das sowjetische Frühwarnsystem hatte gerade den Start von nuklearen Interkontinentalraketen in den USA gemeldet. Petrow griff eigenmächtig ein, stoppte vorschnelle Reaktionen. Erst später stellte sich heraus: Das Frühwarnsystem hatte Sonnenreflexionen auf Wolken als Raketenstarts interpretiert."

      zdf.de/nachrichten/politik/aus…nd-ki-atomwaffen-100.html
    • Ähnliche Vorkommnisse gab es in den USA um 1980 auch. Es wurde ein Angriff von vielen russischen Raketen angezeigt. Die Piloten erhielten Alarm und stiegen in ihre Flieger, blieben aber noch am Boden. Ein amerik. Offizier überschritt seine Befugnisse und forderte Sattelitenfotos an. Auf denen waren keine Raketen zu sehen.

      Das Abblasen des Alarms dauerte länger als das Auslösen.

      Es lag also ein Computerfehler vor. Wo?
      Schon damals waren die Programme so umfangreich, dass die Fehler nicht einfach zu finden waren.
      Es musste eine ähnliche Situation kontrolliert hergestellt werden, damit der Fehler noch mal auftrat, damit man dann besser den Fehler finden konnte.

      Aus den USA wurde Derartiges bekannt, aus der Sowjetunion erst später.

      Die Möglichkeit von Computerfehlern war bekannt. Die Philosophie war wohl, den ersten Einschlag abzuwarten, um ganz sicher zu sein, und erst dann den Gegenschlag vorzunehmen.
      Die große Unbekannte war, welche Folgen der elektromagnetische Effekt einer Explosion in den höheren Atmosphärenschichten hat (Blockade aller Funkverbindungen?, wie lange?, usw.).
    • Neu

      Selbstlernen und KI in der Robotik

      an der TU München gibt es seit knapp 2 Jahren einen Lehrstuhl für Sicherheit, Performanz und Zuverlässigkeit für lernende Systeme
      Ich staune, was inzwischen schon möglich ist bei selbstlernenden, autonomen Robotern... faszinierend und zugleich irgendwie erschreckend, z.B.:
      Ihre positive Sichtweise (die des neugierigen, unvoreingenommen entdeckenden Menschen), die Herangehwensweise bei verschiedenen Lernprozessen autonomer Vehikel und auch ein paar mögliche zukünftige Anwendungen schildert Prof. Angela Schoellig in 15 min (auf Englisch):
      youtube.com/watch?v=ybZTPYkHCUQ
    • Neu

      überlegungen, ki im kontrolliertem rahmen einzusetzen:

      "Die zunehmende Nutzung von KI verlangt nach einer Rechenschaftspflicht für die Funktionsweise von KI-Systemen

      Rechenschaftspflicht bedeutet im Wesentlichen, dass die Beweislast für die ordnungsgemäße Funktionsweise eines KI-Systems auf die entsprechenden Organisationen oder Personen übertragen werden kann. Zu den Verantwortlichkeitskriterien, auf denen sie beruht, gehören die Achtung menschlicher Werte sowie Fairness, Transparenz, Robustheit und Sicherheit. Die Rechenschaftspflicht hängt von der Rolle der einzelnen KI-Akteure, dem Kontext und dem Stand der Technik ab. Für politische Entscheidungsträger ist sie an Mechanismen geknüpft, die verschiedene Funktionen erfüllen. Diese Mechanismen bestimmen, welche Akteure für eine bestimmte Empfehlung oder Entscheidung verantwortlich sind. Sie korrigieren die Empfehlung oder Entscheidung, bevor sie umgesetzt wird. Sie könnten die Entscheidung auch nachträglich anfechten und sie könnten sogar das für die Entscheidung verantwortliche System anfechten (Helgason, 1997[46]).
      In der Praxis hängt die Verantwortlichkeit von KI-Systemen häufig davon ab, wie gut ein bestimmtes System nach Indikatoren der Genauigkeit oder Effizienz abschneidet. Zunehmend werden dabei auch Indikatoren für die Ziele Fairness, Sicherheit und Robustheit herangezogen. Allerdings werden solche Indikatoren immer noch seltener eingesetzt als Messgrößen der Effizienz oder Genauigkeit. Wie bei allen Messgrößen können Monitoring und Evaluierung kostspielig sein. Daher müssen Art und Häufigkeit der Erhebungen in einem angemessenen Verhältnis zu den potenziellen Risiken und Vorteilen stehen.

      Das erforderliche Maß an Rechenschaftslegung hängt vom Risikokontext ab
      Welcher Politikansatz angemessen ist, hängt vom Kontext und vom Anwendungsfall ab. Beispielsweise können die Rechenschaftserwartungen bei der Nutzung von KI im öffentlichen Sektor höher sein. Dies gilt insbesondere für die Ausübung hoheitlicher Aufgaben, wie Sicherheit und Rechtsvollzug, bei denen ein erhebliches Schadenspotenzial besteht. Formale Rechenschaftsmechanismen sind häufig auch für privatwirtschaftliche Anwendungen in den stark regulierten Bereichen Verkehr, Finanzen und Gesundheitswesen erforderlich. In Bereichen des privaten Sektors, die weniger stark reguliert sind, unterliegt der Einsatz von KI weniger formalen Rechenschaftsmechanismen. Technische Ansätze für Transparenz und Rechenschaftspflicht spielen in diesem Fall eine noch wichtigere Rolle. Sie müssen sicherstellen, dass die von privatwirtschaftlichen Akteuren konzipierten und betriebenen Systeme gesellschaftlichen Normen und rechtlichen Auflagen gerecht werden.
      Einige Anwendungen oder Entscheidungen können das Eingreifen eines Menschen erfordern, der den sozialen Kontext und mögliche unbeabsichtigte Konsequenzen berücksichtigt. Wenn Entscheidungen erhebliche Auswirkungen auf das Leben von Menschen haben, besteht weitgehend Einigkeit darüber, dass sie nicht allein aufgrund von KI-basierten Ergebnissen (z. B. einem Score) getroffen werden sollten. Die DSGVO beispielsweise befürwortet in solchen Fällen ein menschliches Eingreifen. Menschen müssen z. B. informiert werden, wenn KI genutzt wird, um in einem strafrechtlichen Verfahren ein Urteil zu fällen, um Kreditvergabeentscheidungen zu treffen, Plätze in bestimmten Bildungsgängen zu vergeben oder Kandidaten für eine Stelle auszuwählen. Wenn viel auf dem Spiel steht, sind meist formale Rechenschaftsmechanismen erforderlich. Zum Beispiel ist ein Richter, der KI bei der Urteilsfällung in Strafverfahren nutzt, jemand, der direkt eingreifen kann („human-in-the-loop“). Andere Rechenschaftsmechanismen – darunter auch traditionelle gerichtliche Berufungsverfahren – helfen jedoch sicherzustellen, dass KI-Empfehlungen für Richter nur ein Kriterium unter anderen sind, die es zu berücksichtigen gilt (Wachter, S., B. Mittelstadt und L. Floridi, 2017[47]). In risikoarmen Kontexten, z. B. bei Restaurantempfehlungen, kann man sich möglicherweise ganz auf Maschinen verlassen. Ein mehrere Ebenen umfassender Ansatz, der unnötige Kosten nach sich ziehen kann, ist hier vermutlich nicht nötig."

      oecd.org/publications/kunstlic…esundheitskrisen%20helfen.
    • Neu

      "KI in der Gesellschaft

      Wissenschaftler*innen sehen künstliche Intelligenz (KI) als Schlüsseltechnologie, deren Anwendung in allen Gesellschaftsbereichen zu erwarten ist. KI kann die Lebensqualität vieler Menschen erhöhen und bei der Bewältigung weltweiter Herausforderungen wie Klimawandel oder Gesundheitskrisen helfen.
      Auf der ganzen Welt wird schon heute sehr viel Geld für die Entwicklung von KI-Systemen bereitgestellt. Das zeigt, wie hoch das wirtschaftliche Potenzial der KI ist. Mit der zunehmenden Nutzung von KI-Anwendungen wachsen aber auch die Bedenken, zum Beispiel in Bezug auf die Bedeutung menschlicher Werte wie Fairness, Freiheit, Datenschutz, Sicherheit und Haftung. Wohl kaum eine andere Entwicklung stellt uns derzeit so deutlich und umfassend die Frage, wie wir unsere technischen Fähigkeiten im gesellschaftlichen Zusammenhang sehen wollen. Sicher ist, dass diese Technologie unseren Alltag schon jetzt tiefgreifend verändert hat und weiter verändern wird.

      Moral für Maschinen
      Algorithmen verändern durch Dating-Apps das Liebesleben vieler Menschen, verwalten das Smart Home, treffen Kaufentscheidungen und beeinflussen die öffentliche Debatte. KI wird Kinder betreuen, Kranke pflegen, Jobs und Kredite vergeben und in autonomen Waffen über Leben oder Tod entscheiden. Intelligente Maschinen werden eigene Verhaltensmuster entwickeln, die sich weder eindeutig programmieren noch mit der traditionellen Verhaltensforschung erklären lassen. Aber ist ethisches Handeln ohne Bewusstsein und Gewissen überhaupt denkbar? Wie also können wir KIs entwickeln, die den Menschen dienen und nicht schaden? Viele KI-Expert*innen sind überzeugt, dass nur ein neues Forschungsgebiet diese Fragen beantworten kann: „Machine Behaviour“, Verhaltensforschung für Maschinen. Eines jedenfalls ist klar: Wir müssen heute grundlegende Fragen der Ethik und Moral klären, wenn sich Maschinen in Zukunft danach verhalten sollen.

      The Moral Machine
      Iyad Rahwan forscht am Max-Planck-Institut für Bildungsforschung in Berlin und am MIT Media Lab in Boston. Sein Projekt „The Moral Machine“ ist die bisher größte Studie auf dem Gebiet der Maschinenethik. Die interaktive Umfrage untersucht, aus welchen ethischen Gründen Menschen in verschiedenen Weltregionen Entscheidungen treffen und ob daraus Verhaltensregeln für KI entwickelt werden können. Wie soll sich ein autonom fahrendes Auto verhalten, wenn ein schwerer Unfall nicht zu verhindern ist? Die KI muss entscheiden, wohin sie das Auto steuert – und damit auch, wer überlebt. Es zeigt sich: Alle Befragten wollen möglichst viele Menschenleben retten, Kinder zuerst und diejenigen, die sich an die Verkehrsregeln halten. Doch bei genauerem Hinsehen wird klar, dass es keine weltweit gültigen Werte gibt. So möchten Teilnehmer*innen aus Frankreich und Südamerika überwiegend eher Frauen und Kinder retten als Männer, Japaner*innen auch ältere Menschen und die meisten Deutschen möchten nicht eingreifen und das „Schicksal“ entscheiden lassen, wer sterben muss.

      Auf Fairness programmiert
      Wer bekommt einen Kredit? Wer wird zum Jobinterview eingeladen? Wer kommt früher aus dem Gefängnis? In Zukunft werden Computer immer häufiger über Menschen (mit-)entscheiden. Dabei dürfen einzelne Personengruppen nicht besser oder schlechter behandelt werden als andere – auch nicht unbeabsichtigt. Bei automatischen Systemen, die bereits eingesetzt werden, passiert das immer wieder. Warum? Und wie kann eine KI lernen, sich fair zu verhalten? Zunächst muss sicher sein, dass die KI nicht aufgrund der Daten diskriminiert, mit denen sie „gefüttert“ wird. Darüber hinaus spielt es eine große Rolle, inwieweit Computer eine sinnvolle Beziehung zwischen Ursache und Wirkung herstellen können. Einfache „wenn-dann-Beziehungen“ führen hier oft in die Irre. Diese sogenannte Kausalität maschinellen Lernens ist ein sehr aktuelles Forschungsgebiet: Zusammenhänge müssen aufwendig analysiert und in Algorithmen programmiert werden. Aber zu guter Letzt bleibt die Frage „Was ist eine faire Entscheidung?“ Denn es gibt keine Definition von Fairness, die für alle Kulturkreise gleichermaßen gültig wäre.


      Kann KI schuldig werden?
      Wer bezahlt den Schaden, wenn selbstständig lernende und handelnde Maschinen Fehler machen? Die Programmierer*innen, die Produzent*innen, die Nutzer*innen? Die Rechtsordnungen auf der ganzen Welt sind für Menschen gemacht, auch wenn sich einige auf Sachen beziehen. Verantwortlich sind in diesem Fall aber nicht die Produkte oder Maschinen, sondern die Personen, die sie herstellen oder nutzen. Doch das alles gilt für Maschinen, die zum Zeitpunkt des Kaufs „fertig“ sind. Lernende KI verändert sich hingegen ununterbrochen. Wenn eine KI Entscheidungen trifft – und nur dann ist sie eine KI – müsste sie dann nicht auch als Rechtsperson für ihr Handeln verantwortlich sein? Wohin werden sich die Rechtsordnungen entwickeln? Einige Jurist*innen sagen, dass sich nichts ändern muss. Andere wollen sicherstellen, dass man durch den Einsatz von intelligenten Maschinen seine Verantwortung nicht abgeben kann. Eine dritte Gruppe vertritt den Standpunkt, dass völlig neue Rechtsvorschriften entwickelt werden müssen.

      Vom Wert der Daten
      Mithilfe von KI werden riesige Mengen an Daten ausgewertet. Genutzt werden sie etwa im Marketing für kundengenaue Werbung, bei Empfehlungen von Suchmaschinen oder auch für Chatbots. Das sind Online-Dialogsysteme, die in Echtzeit Fragen beantworten, ohne dass ein Mensch beteiligt ist. Unternehmen nutzen Chatbots im Kundendienst oder in Onlineshops, aber auch in sozialen Netzwerken kommen sie häufig vor. Damit Chatbots korrekt funktionieren, müssen allerdings die Daten von guter Qualität sein. Lernt eine KI von den „falschen“ Vorbildern, kann sie schnell rassistisch, vulgär und verletzend werden. Das passiert zum Beispiel Ende 2020 mit „Lee Luda“: Der Avatar dieses Chatbots ist ein Manga-Mädchen, ihre Datengrundlage sind rund 100 Milliarden Talk-Botschaften. Innerhalb weniger Wochen unterhalten sich 750.000 Menschen mit „Lee Luda“. Doch von manchen Teilnehmer*innen lernt Lee problematische Ansichten. Sie äußert sich immer öfter beleidigend, sogar menschenverachtend und wird schließlich vom Netz genommen.

      Soziale Roboter
      In vernetzten Fabriken arbeiten Mensch und Maschine schon heute als intelligentes Team zusammen. Roboter übernehmen anstrengende, gefährliche oder langweilige Aufgaben und helfen so ihren Kolleg*innen. Auch in der Pflege von kranken und älteren Menschen werden Roboter und KI in Zukunft immer häufiger unterstützende Tätigkeiten leisten. Intelligente Maschinen, die mit Menschen kommunizieren sollen, sehen oft auch wie Menschen aus: Sie haben einen Kopf, einen Körper, zwei Arme und manchmal sogar zwei Beine. Dann wird die Maschine von den Menschen besser akzeptiert – so wie „Pepper“, ein 1,20 Meter kleiner Pflegeroboter mit großen schwarzen Kulleraugen und einem glänzend weißen Körper. Er spricht mehrere Sprachen, kann sich Gesichter merken, Gefühle erkennen und darauf reagieren. Pflegeroboter können viele Aufgaben übernehmen und so den Menschen helfen, die in der Pflege arbeiten. Zwischenmenschliche Beziehungen können sie nicht ersetzen – aber mehr Zeit dafür schaffen.

      Künstliche Kunst
      Künstler*innen setzen sich auf vielfältige Art mit den Beziehungen zwischen der digitalen und der physischen Welt auseinander. Bei der Science-Fiction spielt KI schon lange eine wichtige Rolle. Aber kann KI selbst Kunst erschaffen? Kunst ist ein kreativer Prozess, bei dem Wahrnehmung, Vorstellung und Intuition wichtig sind. Kann KI kreativ sein, wenn sie keinen Humor versteht, Trauer und Freude nicht kennt und kein Bewusstsein hat?
      Mithilfe von intelligenten Algorithmen entstehen heute Gemälde, Gedichte und Musikstücke. Das Auktionshaus Christie’s versteigert 2018 erstmals ein von einer KI erstelltes Bild. Der Münchner Künstler Mario Klingemann zeigt in Videoinstallationen Fantasiegesichter, die sich in Echtzeit ändern: Die lernende KI integriert die Gesichtszüge der Besucher*innen in das Kunstwerk und passt sich damit auch verschiedenen Kulturen an. Und mittels „Deepfake“ lässt KI eine künstliche Taylor Swift ein künstliches Lied singen. Dazu analysiert der Algorithmus alle Lieder der Sängerin und synthetisiert einen neuen Song – perfekt im Stil von Taylor Swift.

      "KI ist nicht kreativ - KI kann Kreativität initiieren."
      Claudia Janet Birkholz, Pianistin und Dozentin für Klavier und zeitgenössische Musik an der Hochschule für Künste Bremen


      Wem gehört das Kunstwerk?
      Wenn KI Kunst erschaffen kann, wem gehört dann das Kunstwerk? Ganz ohne menschliches Zutun kann KI-Kunst nie entstehen – wenigstens das Programm muss jemand geschrieben haben. Wer ist also die Künstlerin oder der Künstler? 2018 vermarktet Christie’s das Bild „Portrait of Edmond de Belamy“ als das erste Kunstwerk, das nicht von einem Menschen, sondern von einer KI erstellt wird. Den gesamten Kaufpreis von 432.500 Dollar bekommt das französische Künstlerkollektiv Obvious. Für das Bild „füttert“ Obvious einen Open-Source-Algorithmus mit Fotos von Gemälden und trainiert ihn, aus diesen Daten Bilder zu entwickeln. Die Künstler*innen wählen dann eines der Bilder aus, geben ihm seinen Namen und bieten es zum Verkauf an. Der Programmierer des Algorithmus wird weder genannt, noch bekommt er etwas vom Verkaufserlös. Ist das gerecht? Laut einer Untersuchung ist die Mehrheit der Befragten der Meinung, dass die Anerkennung vor allem diejenigen bekommen sollen, die die Lernalgorithmen mit Daten versorgen und sie trainieren – also in diesem Fall Obvious."

      goethe.de/prj/umi/de/the/sfi/kdg.html