ki: nutzen und gefahren- insbesondere in soziologischer hinsicht

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

    • ki: nutzen und gefahren- insbesondere in soziologischer hinsicht

      viele , egal welchen alters, haben bereits schwierigkeiten, sich in der informationsgesellschaft zurechtzufinden.
      und die entwicklung künstlicher intelligenz nimmt rasant fahrt auf.
      mich würde zum einen interessieren, wie seht ihr die entwicklung im allgemeinen und zum anderen, ob ihr im privaten raum z.b. chat gpt etc. nutzt.

      zur einstimmung:
      die eu zu ki
      europarl.europa.eu/topics/de/a…igenz-chancen-und-risiken
      arte-doku "schlaue neue welt"
    • meiner meinung nach ist die ki-entwicklung und der umgang damit neben dem klimawandel und der verteilungsgerechtigkeit eine der wichtigsten fragen unserer zeit.
      aufzuhalten ist sie wohl nicht; umso wichtiger, sich rechtzeitig gedanken darüber zu machen.
      während ich im medizinischen bereich hauptsächlich die positiven errungenschaften sehe, betrachte ich den bereich gesellschaftliche und politische information besorgt.

      der im arte-video erwähnte brief wird hier kontrovers diskutiert:
      deutschlandfunk.de/experten-wa…iner-vernichtung-106.html
      safe.ai/work/statement-on-ai-risk

      versus

      netzpolitik.org/2023/offener-brief-zu-ki-opfer-des-hypes/




      ps:
      eine gut verständliche einführung über "intelligenz" von ki und entwicklungstempo bietet die gesprächsrunde mit lesch:

    • Zur einer der Eingangsfragen: Ich benutze ChatGPT überhaupt nicht.
      Dafür aber Alexa, vor allem mit Fragen zum Müllkalender :)

      Das zeigt mein Level.

      Auch wenn hier vor allem soziologische Fragen angesprochen sind, etwas zur Mathematik und Naturwissenschaften und ChatGPT:

      Zufällig gelesen: Vor ca. 1 Jahr, als die Diskussion zu ChatGPT in vollem Gang war, führte der Vorsitzende der Deutschen Mathematiker-Vereinigung, Professor Escher, ein "Prüfungsgespräch" mit ChatGPT. In etwa:

      Eingangsfrage: Warum ist 2023 eine Primzahl?

      ChatGPT erläutert daraufhin völlig korrekt, was eine Primzahl ist und wie man das überprüft.
      "Daher ist 2023 eine Primzahl."

      Anmerkung: es ist 2023 = 7 x 17 x 17.

      Prof. Escher: Bestimmen Sie eine Faktorzerlegung von 2023.

      ChatGPT: Erläuterung des Verfahrens hierfür und richtiges Ergebnis.

      Prof. Escher: Wieso ist 2023 eine Primzahl?

      ChatGPT: Antwort wie beim 1. Mal (!!)

      Leichtes Kopfschütteln von Prof. Escher und Beisitzer.

      Noch ein paar Nachfragen, dann Abbruch der Prüfung:
      "ohne Note, da sie im Rahmen der Freischussregelung erfolgte". :)

      -------------------

      Dieses und ähnliches Verhalten von ChatGPT war Anlass zu vielen Scherzen. Es ist natürlich so programmiert, da ChatGPT die Benutzer unterstützen soll. Vermutlich wurde inzwischen eine kritischere Überprüfung von Zusatz-Infos eingebaut.

      Dies zeigt den Stand der KI, sobald Selbständigkeit im Rahmen der Mathematik gefragt ist.

      Unterstützend hat KI aber sogar zu unerwarteten neuen mathematischen Resultaten geführt, siehe
      AlphaZero schlägt Stockfisch nach 4 Std. Lernen

      und den nachfolgenden Beitrag zu Verbesserungen des Strassen-Algorithmus zur Matrizen-Multiplikation, nach über 50 Jahren.

      Bei nicht-mathematischen Fragen, Texten und Aufgaben ist ChatGPT offenbar *wesentlich* besser, siehe obige Videos -- erstaunlich!
    • Bezug nehmend auf die Frage von meffi:
      Ich stehe der KI sehr ablehnend gegnüber.
      Selbstverständlich "kann" sie in einigen Bereichen hilfreich sein,
      aber sie kann auch sehr gefährlich werden.
      Da gab es doch mal diesen Film "War Games",nur als Beispiel.
      Fragen:
      Wer haucht dem Rechner die "KI" ein?
      Ist der Programmierer ein sozial, oder ein egoman fühlender/denkender Mensch?
      Kann die KI "empfinden/fühlen"? (Kälte, Wärme, Zuneigung, Liebe, Hass, Angst,Verlust...)
      Welche Ziele soll die KI erreichen?
      In welche Richtung soll die KI denken?
      Kann die KI gehackt/missbraucht werden?
      Bevor wir ein, von uns programmiertes,
      selbst denkendes und evtl. auch handelndes Rechenzentrum auf die Menschheit loslassen,
      sollten wir uns erstmal genauestens in unserem Inneren überprüfen.

      Das Streben nach mehr sozialer und menschlich gelebter Intelligenz ist mir viel lieber.

      Frage, Antwort.
      Gruß, Schmiddi
    • merci für den einblick in die mathematische betrachtungsweise!

      Manni5 schrieb:

      Bei nicht-mathematischen Fragen, Texten und Aufgaben ist ChatGPT offenbar *wesentlich* besser, siehe obige Videos -- erstaunlich!
      dem stimme ich (aufgrund deiner erläuterung) zu.

      daher kann ich auch die von @Schmiddi aufgeführten ängste verstehen.
      allerdings gibt's nen unterschied zwischen computersystemen im allgemeinen und ki.
      computerweekly.com/de/feature/…KI-und-IT-Automatisierung
      gehackt werden können auch schon die it-automatisierten vorgänge.
    • @Schmiddi

      Nur ein paar Antworten zu Deinen Fragen. Der Reihe nach:

      Die "KI" ist ein Programm, das von Menschen programmiert wird. Es bezeichnet bestimmte Arten von Computerprogrammen.

      Da der Programmierer ein Mensch ist, nehme ich das an.

      Nein. Die "KI" hat keine Empfindungen. Man weiß überhaupt nicht, wie man sowas wie "Empfindungen" programmieren sollte.

      Ziele: mit KI-Verfahren -- man kann auch sagen: mit diesen Informatikverfahren -- soll das Programm besser funktionieren.

      Richtung: Bisher soll die KI eine Aufgabe lösen, mit Hilfe von Computerberechnungen. Auf Grund der Schnelligkeit des Computers kann dieser viele Berechnungen durchführen, schneller und zuverlässiger als der Mensch. Beispiel: die bisherigen Schachprogramme. Neue Verfahren mit anderer Art des Programms: der Computer spielt selber viele Stellungen durch und lernt dabei, was gut bzw. schlecht ist. Z.B. AlphaZero. Das nennt man "maschinelles Lernen". Oder: Saugroboter für den Boden erkennen Hindernisse und umfahren Möbel, ohne diese zu berühren. Evtl. speichern sie auch einen Plan des Raumes ab. Auch das nennt man KI.

      Die Aufgabe besser lösen als der Mensch, das kann er teilweise auch im Bereich der Medizin: sich viele Bilder von Krebs ansehen und erkennen, welche Aufnahmen auf Krebs hindeuten und welche nicht. Damit ist er wohl schon teilweise besser als erfahrene Oberärzte. Der Computer kann aber nicht (noch nicht?) erklären, wieso er zu diesem Urteil kommt. Das ist ein Problem. Siehe

      tagesschau.de/wissen/forschung/ki-krebsdiagnose-100.html

      KI gehackt: wie jedes Computerprogramm.
      KI missbraucht: dito.

      Selbst denkendes Rechenzentrum auf die Menschheit loslassen: derartige Rechenzentren gibt es nicht, und ob/wann es sie geben könnte, weiß keiner. Die Rechenzentren rechnen das aus, wozu der Mensch gerne Resultate haben möchte. Z.B. Wettervorhersage in 7 Tagen. Daran sieht man die Schwierigkeit. Die besten Schachzüge: das kann ein Handy. Die Entwicklung von Aktienkursen morgen: zu kompliziert.
    • die folgenden worte der sektion `gesellschaftliche folgen des einsatzes von ki´ des projekts ki.me.ge beschreiben meiner meinung nach den ist-zustand recht gut:

      "Die Geschichte der Menschheit lässt sich umstandslos als eine Geschichte fortlaufender technischer Revolutionen schreiben, mit denen jeweils neue Machtverhältnisse und weitreichende Veränderungen der Herrschaftsstrukturen verbunden waren. Maschinen und Technik sind dabei im Laufe der Jahrhunderte zu einem integralen Bestandteil der Gesellschaft geworden und prägen heutzutage mehr denn je Kultur, Zivilisation und unsere allgemeine Lebensweise, sie ist quasi mit unseren normativen Orientierungen und gesellschaftlichen Leitbildern verschmolzen.....


      Angesichts der jüngsten Revolutionierungen der Technik, insbesondere der umfassenden Digitalisierung und der zunehmenden Durchsetzung künstlicher Intelligenz, ist deutlich geworden, dass Technik weit mehr ist als ein Medium oder ein bloßes Artefakt, welches allen Menschen in gleichem Maße zugutekommt. So können die ungleichheitsgenerierenden Aspekte neuer Technologien ebenso wenig übersehen werden wie das Faktum, dass unterschiedliche Techniken immer auch zentrale Ressourcen für die Ausübung von Macht sind, dass sich technische Dominanz sachlogisch in die Sozialstrukturen eingeschrieben hat und sie quasi gleichbedeutend mit Einfluss und Macht geworden ist. Allerdings oszilliert die Debatte um KI nicht selten zwischen naiver Technikeuphorie einerseits und fatalistischen bzw. dystopischen Auslöschungsphantasien andererseits. Die mit der Entwicklung von KI verbundenen Machtfragen bleiben dabei bislang seltsam unterbelichtet oder untertheoretisiert."

      (hervorhebung von mir)

      kimege.de/gesellschaftliche-folgen-des-einsatzes-von-ki/

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von Meffi ()

    • contra:

      deepfakes


      " Politiker:innen sind beliebte Zielpersonen von Deepfakes.
      • Vor Kurzem kursierte ein Deepfake-Video der damaligen Bundeskanzlerin Angela Merkel auf TikTok. Das Video wurde so manipuliert, dass es so aussah und klang, als würde sie in der Jugendsprache auf die gestiegenen Dönerpreise in Deutschland eingehen. Bei so einem Humor war der Deepfake-Charakter des Videos unübersehbar.
      • Etwas anders wirkte der Fall des aktuellen Bundeskanzlers Olaf Scholz. In einem Deepfake-Video wendete er sich an die Nation und verkündete, die AfD verbieten zu wollen. Auch wenn das Video auf dem ersten Blick echt wirkte, war nach genauem Hinsehen ersichtlich, dass sich dahinter die KI verbirgt.
      Im politischen Kontext ist die Gefahrenlage von Deepfakes groß. Es kann die politische Meinungsbildung mit unwahren Inhalten manipulieren und auch Wahlkampagnen beeinflussen.


      ..Nachrichten..

      Dieselbe Gefahrenlage besteht auch bei Nachrichten in Form von Desinformationen, sodass Fake-News entstehen. In diesem Kontext können aber auch Personen aus der Fernsehmoderation als Zielgruppe für Betrugvideos eingesetzt werden.



      Stars ....

      Im Visier von Deepfakes sind auch Prominente. Der kürzliche Deepfake-Fall auf X (ehem. Twitter) führte dazu, dass die Suche auf der Plattform nach der Popsängerin Taylor Swift eingeschränkt wurde. Von der Sängerin wurden pornografische Deepfake-Bilder erstellt.....



      ...Alltag..
      Personen des öffentlichen Lebens können eine beliebte Zielscheibe sein, doch dieselben Gefahren durch den Missbrauch von KI können auch innerhalb der Gesellschaft auftreten.
      • Die Deutsche Telekom hat mit der #ShareWithCare Kampagne für einen verantwortungsvollen Umgang mit Fotos und Daten von Kindern sensibilisiert. Mit einem Deepfake-Spot wurde auf die Folgen vom sog. „Sharenting“ aufmerksam gemacht...
      • Das sog. „Catfishing“ im Online-Dating kann glimpflich verlaufen, wenn die Person nur das Aussehen mit Instagram-Filtern getäuscht hat und auf einem Treffen das wahre Gesicht entpuppt wird. Ein schrecklicheres Szenario wäre, wenn es nie zum einem Treffen kommt, aber Catfisher ihre Opfer dazu bringen Zahlungen für sie zu tätigen. Von manuellen Photoshops bis hin zu automatischen Filtern, die das äußere Erscheinungsbild ändern können. Eine Gegenmaßnahme von Instagram in der Story-Funktion ist, dass verwendete Filter angezeigt werden. Auf Profilbildern oder geposteten Beiträgen ist dies wiederum nicht der Fall.
      • Eine weitere Gefahr lauert in diversen Betrugsfällen. Beispielsweise können die „Enkeltricks“ mit Hilfe von KI auf ein next Level übertragen werden. Die üblichen Maschen sind bekannt, die Bevölkerung ist sensibilisiert. Doch anhand der KI können diese Betrugsmaschen realistischer gestaltet werden, sodass die Reinfallwahrscheinlichkeit höher ist als die bisherigen Varianten.
      • Wenn Gesichter zum Objekt von Deepfakes werden, dann ist hier an die Biometrie zu denken. Die Verifizierung der Identität über eine App ist praktisch und einfach. Das kommt insbesondere bei der Neuanlegung eines Bankkontos, Nutzung von Krankenkassen-Apps oder auch bei der Carsharing-Anmeldung vor. Insofern gelten biometrische Systeme auch als gefährdet, da es anhand der Deepfake-Verfahren auch möglich ist die manipulierten Inhalte in Echtzeit laufen zu lassen.
      • Apropos Verifizierung von Personen: Kriminelle vertreiben unter dem Namen „Onlyfakes“ eine KI-basierte Lösung zur Erstellung gefälschter US-Führerscheine. Die Einsatzgebiete waren in diesen Fällen das Onlinebanking und der Kryptohandel.
      KI als CEO
      Im unternehmerischen Kontext werden die Deepfake-Verfahren ebenfalls vermehrt eingesetzt.
      • Ein klassisches Beispiel ist das Social Engineering, um gezielte Phishing-Angriffe durchzuführen und somit an Informationen sowie Daten heranzukommen. Darüber hinaus können die Verfahren für Betrugsfälle oder zur Abschöpfung finanzieller Mittel genutzt werden.
      • Diese Gefahren sind nicht nur hypothetische Szenarien, sondern entsprechen den Tatsachen. Erst vor Kurzem berichtete die Presse über einen Fall in Hongkong, wo ein Angestellter 23 Millionen Euro an einen Betrüger überwies. Diesmal war es keine Phishing-Mail, sondern eine Deepfake-Videokonferenz. Bei einem sog. „CEO-Fraud“ geben sich Kriminelle als Führungskräfte aus. In der Regel sind es vertrauliche und dringend benötigte Transaktionen, die Mitarbeitende tätigen sollen. Mit Hilfe des Einsatz von KI erhöht sich die Glaubwürdigkeit von Betrugsmaschen, insbesondere wenn es sich um eine Videokonferenz handelt…
      dr-datenschutz.de/deepfakes-un…tanz-von-ki-technologien/
    • pro



      "Übersetzungen mit KI

      Eine zusätzliche Erleichterung wird der Einsatz von KI im internationalen Kontext sein. Der klassische Anwendungsbereich sind hierbei Übersetzer-Tools, wie DeepL. Die Übersetzungen können zudem auch auf eine andere Dimension übertragen werden.
      In jeglichem Kontext können Übersetzungen mit KI von Vorteil sein, da wir uns in einem Zeitalter befinden, wo über Grenzen hinaus ein Zugang an Informationen gegeben ist, sodass insbesondere für Nachrichten und politische Entwicklungen Übersetzungen in die eigene Landessprache vereinfacht werden.


      KI in der Gesundheitsbranche

      Der Einsatz von KI in der Gesundheitsbranche ist umstritten und birgt in der Tat auch viele Gefahren. Wenn die Gefahren jedoch beseitig werden können und die Sensibilität von Gesundheitsdaten im Fokus steht, sind in der Gesundheitsbranche auch Vorteile erkennbar.
      Beispielsweise werden kundenspezifische Produkte auf Grundlage der Deepfake Voice-Technologie entwickelt. Ziel dieser Produkte ist es Menschen mit ALS (Lou-Gehrig-Syndrom) zu helfen. ALS-Patient:innen, die ihre Fähigkeit zu sprechen verloren haben, sollen weiterhin mit ihrer eigenen Stimme sprechen können."


      ca. neutral :)

      um es auf den punkt zu bringen:

      eigentlich ist die schwachstelle von ki der mensch.



      "KI-Technologien werden zu diversen Zwecken mit unterschiedlichen Absichten eingesetzt. Eine Gefahr stellen insbesondere Deepfakes dar, die in verschiedenen Formen auftreten können. Regelmäßig nehmen Deepfake-Inhalte einen Platz in den Schlagzeilen ein. Von humorvollen Inhalten bis hin zu gefährlichen Betrugsfällen. Die Erkennbarkeit von Deepfakes ist nicht unmöglich. Doch je besser die Technologie wird, desto schwieriger wird die Differenzierung von realen Inhalten.
      Wenn es das Böse gibt, dann muss es auch das Gute geben. Denn einige der KI-Technologien sind bereits in der Gesellschaft vertreten, die auch anerkannt sind: Musik, Fashion, Beauty-Filter. Alles, was darüber hinausgeht, ist aktuell besorgniserregend und ist mit einer Gefahrenlage verbunden. Doch was stuft man als Gefahr ein? In der Regel das, was neu und unbekannt ist. Sobald die Gesellschaft jedoch aufgeklärt ist und Gegenmaßnahmen für die Verwendung zu bösen Absichten vorhanden ist, sollte das Potenzial der KI für produktive und sinnvolle Zwecke ausgeschöpft werden. Denn die Dosierung macht das Gift. Wie zur Anfangszeit des World Wide Webs: eine Unsicherheit war gegeben, Bedrohungsszenarien waren ersichtlich, doch nun kann man sich den Alltag ohne das Internet nicht vorstellen. Ähnlich ist der Ausblick auch für die Künstliche Intelligenz."

      (zit.aus o.e.quelle)

    • Manni5 schrieb:

      Selbst denkendes Rechenzentrum auf die Menschheit loslassen: derartige Rechenzentren gibt es nicht, und ob/wann es sie geben könnte, weiß keiner.
      Hallo Manni. Vielen Dank für deine Antwort. :)

      Ich ersetze "denkendes" durch "rechnendes" und stelle die Frage: Was ist die KI?
      Die KI ist eine Recheneinheit, die von Menschen erstellt wurde und "weiterlernt"!
      Je mehr Fragen an die KI gestellt werden, umso umfangreicher wird ihr "Wissen"!
      Somit "Rechenzentrum"!
      Die KI mußte ja mal "gerechnet" und somit programmiert worden sein. Fakt!
      WER hat die KI gerechnet?
      WER hat der KI Leben eingehaucht?
      Ist der "Erfinder/Ersteller" der KI ein sozial oder egoman denkender/fühlender Mensch?
      Ich stehe der KI weiterhin sehr skeptisch gegenüber, da sie nichts von Gefühlen wie:
      Verlusten, Empathie, Liebe, Hass und Vielem mehr rechnen kann!
      Es ist und bleibt ein "0001010010100001" denken/rechnen und hat mit Menschlichkeit nichts zu tun!
      Ich habe Angst vor der KI und dabei wird es auch bleiben!
      Trotzdem danke ich dir und meffi für die weitreichenden Recherchen!
      Gruß, Schmiddi
    • zu deinen fragen, schmiddi:

      einen einblick darin, was eine ki ist und wie sie funktioniert, haben mir (auf nicht-informatikerInnen-level) die beschreibungen aus computerweekly.com und der lesch-gesprächsrunde gegeben.
      (post 2 und 5)
      -----------------------------------------------------------------------------------------------------------


      zu den soziologischen problemen:

      was mich etwas skeptisch stimmt, liegt im gesellschaftlichen umgang mit infos begründet.

      wenn jetzt schon viele schwierigkeiten mit dem informations"überfluss" oder dem filtern von informationen haben, wenn es heute schon menschen gibt, die tiktok, facebook, telegram und co als nachrichtenquelle ansehen, dann frage ich mich, wie weitgehend der einfluss von z.b. deepfakes die gesellschaft beeinträchtigen kann.
    • Schmiddi schrieb:

      Lesch,
      ein Naturwissenschaftler, der mit einem Theologen diskutiert.
      nun, es würde ausreichen prof. hannah bast zuzuhören. :)

      aber es gibt mit sicherheit zahlreiche weitere erklärvideos... einfach selber suchen.

      im grunde genommen hab ich die o.e. links nur für diejenigen mit rein genommen, die mit "technik" nix am hut haben. ( wie ich selber als geisteswissl ja auch.)
      ist schließlich nicht das entscheidende moment in der ausgangsfragestellung.