Mi246 – „Die Blume der Wissenschaft“

Inhalt

00:00:00 Intro
00:02:13 Begrüßung
00:04:14 Psychologengespräch
00:15:11 Ticket to Mars
00:22:14 Karte vom Mars
00:26:38 Reale Fotos oder Fake?
00:42:24 Kommentare
00:44:55 Unterstützer:innen
00:46:58 Thema 1: “Rettung für den braunen Daumen”
01:12:37 Snackable Science
01:23:38 Thema 2: „I am sorry Dave, you shouldn`t do that“
01:50:34 Schwurbel
02:08:38 Hausmeisterei

Immer noch folgende Aufnahmesituation: von Essen nach Bad Oexen und zurück!

Mars-Meldung 1: Minkorrekt-Betriebsausflug zum Mars! Zumindest für die Namen … möglich macht’s die NASA, tragt euch ein!

Mars-Meldung 2: die erste hochaufgelöste interaktive Karte vom Mars! .

Die Unterscheidung zwischen echten Fotos und Fake wird immer schwerer: Hörer Frank hat uns ein Video zum „Samsung Fake Moon“ geschickt – Fehlinterpretationen von z. B. Messwerten sind nicht nur für die Wissenschaft gefährlich!

Kommentare zur Sendung:
Das Experiment aus der letzten Folge (Rissausbreitung) hat viel Resonanz erhalten bzgl. weiterer Verwendungszwecke: ob Peitschen in der BDSM-Szene, Knopflöcher oder Sägeblätter …

Unterstützerinnenkommentar der Woche:
Adriana: „Ihr wart mein erster Podcast und habt mich durchs Studium begleitet, vielen Dank für eure tolle Arbeit!“

Thema 1 (Nicolas):Rettung für den braunen Daumen“ – mithilfe von Pflastern mit Sensoren können Infektionen mit Krankheitserregern auf Pflanzen rechtzeitig erkannt werden. Ähnlich wie bei Reinis Stress-Tomaten aus Folge 244 spielt eben auch das Stresslevel eine Rolle.

Snackable Science:Der größte Stern!“ – wie der Titel verrät, stellt sich Nicolas die Frage, welcher Stern der größte ist! Hier der Spoiler.

Thema 2 (Reini): I am sorry Dave, you shouldn`t do that“ – ChatGPT hat mehr Einfluss auf unser Urteilsvermögen als wir denken und manipuliert dieses sogar. Die Ergebnisse dieser Studie zeigen mal wieder, wie wichtig digitale Kompetenz heutzutage ist!

Schwurbel der Woche: “ Erdungsschwurbel“ – die verlorene Verbindung zur Erde kann hier wieder hergestellt werden.

Hausmeisterei: Wir haben unser Merch aufgefrischt! Endlich gibt es einen Minkorrekt-Beutel mit der Blume der Wissenschaft (!) und ein neues Tassen-Motiv, für alle, die Wert darauf legen, ihren Globuli-Konsum der Welt zu zeigen.

Wichtige Adressen:

Hier findet ihr unseren Discord

Modisch inkorrektes Merch gibt es hier!

Hier findet ihr alle Möglichkeiten, uns zu unterstützen

Minkorrekt ohne Werbung bekommt ihr bei Steady

Alle Werbepartner findet Ihr in diesem Linktree!

35 Gedanken zu „Mi246 – „Die Blume der Wissenschaft“

  1. Ich bin nach wie vor traurig, dass es die Super Minkorrekt Bros. Tasse nicht mehr zu kaufen gibt. Die ist mir nach etlichen Jahren leider beim Spülen kaputt gegangen ?
    Die anderen Designs finde ich leider eher nur so meh 😡

  2. Zum Thema KI Verfälschung von Smartphones: die meisten Geräte haben einen Pro Modus in der Kamera App der noch klassisch einfach ein Foto schießt. Zum Teil sogar mit RAW Dateiausgabe.
    Vorteil: man bekommt das Foto „wie gesehen“ und kann sich seine knallige Bearbeitung später selber drauf basteln
    Nachteil: es wird etwas mehr rauschen da die Entrauschung durch das verrechnen mehrerer Aufnahmen entfällt und man muss sich seine Fotos selber knallig bearbeiten (hat ja nicht jeder Bock drauf das zu machen)

    Ich benutze diesen Modus tatsächlich hauptsächlich weil mir die KI Bearbeitung einfach zu unzuverlässig ist, z.B. ich nehme ein Foto auf: Person guckt mich an, lächelt, Augen offen, sehe die Ladeschnecke der KI Bearbeitung und die KI entscheidet sich dann lieber ein Bild zu nehmen auf dem die Person weggeschaut und die Augen geschlossen hatte. Oder ein Beispiel vom Samsung das asiatische Schriftzeichen statt einer Fensterwand am Plattenbau interpretiert.

    Nicht jedes Foto lässt sich nach so einem Ausfall wiederholen, da bin ich lieber im KI freien Fotomodus unterwegs.

  3. Moin,

    das motivbasierte, selektive Imageprocessing in Endgeräten ist leider längst Realität. Versucht doch mal, einen Euroschein auf einem halbwegs aktuellen Kopierer einzulesen.

    Beste Grüße, Guido

  4. Die Idee, dass Kameras bestimmte Objekte nicht fotografieren können, weil sie in irgendeiner Form geschützt sind, hat Marc-Uwe Kling in seinen Quality-Land-Romanen umgesetzt. Menschen ab einen gewissen Level können dort die Funktion freischalten, dass Lowlevels sie nicht fotografieren können.
    In einfacher Form gibt’s das schon seit Jahren bei Kopierern. Die meisten verweigern bei Geldscheinen als Vorlage die Arbeit. Hier werden die Scheine nicht als Ganzes erkannt, sondern eine bestimmte Konstellation von Ringen, die bei vielen Währungen weltweit verwendet werden. Es dürfte aber noch weitere Merkmale geben, die erkannt werden, was aber nicht offen kommuniziert wird.
    https://de.wikipedia.org/wiki/EURion-Konstellation

  5. Wieder eine gelungene Folge. Danke. Zwei Gedanken die mir zu Inhalten kamen. So als studierter geisteswissenschaftler (Geschichte & Philosophie)… Endlich kann ich da mal was beitragen 😀

    Zur KI und Änderung der Bilder wird dies die Geschichte in der Zukunft vor Probleme stellen. Mal gaaaaaanz weit gedacht, wenn unsere Kultur nicht mehr so existiert wie heute, werden Geschichtsforscher hingehen und auch Bilder als Material nutzen. Mal ein übertriebenes Beispiel. Stellt euch vor die Historiker/Archäologen finden in 500 Jahren nur 5 Bilder wo überall immer nur genau eine Person vor dem Eiffelturm zu finden ist, auf viel älteren Bildern aber hunderte Menschen. Dann wird da doch Interpretiert, dass das Wahrzeichen Eiffelturm im Verlauf der Zeit keine Menschen mehr anzog ö. ä.
    Kann dazu (also indirekt dazu) den kurzweiligen Text zur „Kaiser Kennedy Legende“ empfehlen. Der hat mich im Seminar im Studium sehr fasziniert. Da bekommt man eine Idee wie die Auswirkungen sein können, auch wenns da nicht im KI geht.: https://www.albertmartin.de/altgriechisch/forum/?view=1646

    Der zweite Punkt ist die Unendlichkeit des Universums. Hier wird in der Philosophie eine grundlegende Unterscheidung gemacht, die man u. a. auch schon bei Aristoteles finden kann.
    Die Unendlichkeit des Universums ist denkbar. Aber nicht vorstellbar. Man muss also zwischen dem, was man sich denken kann und dem was man sich vorstellen kann unterscheiden.

  6. Einfluss von ChatGPT auf unser Urteilsvermögen:

    Die Ergebnisse dieser Studie können auch viel einfacher interpretiert werden: durch den Ankereffekt (https://de.wikipedia.org/wiki/Ankereffekt).
    Der sagt, dass eine vorher gegebene Information eine Einschätzung oder Entscheidung von Probanden beeinflusst, unabhängig davon, ob diese Information richtig, vertrauenswürdig oder auch nur für die Entscheidung relevant ist. Beispiel: wenn Probanden gefragt werden, „Wie viel würden Sie für [Guter Zweck TM] spenden, wäre eine Spende von 5 € angemessen?“ ist die Spendenbereitschaft signifikant viel kleiner, als wenn als Vorgabe (Anker) „400 €“ gesetzt werden. Dieser Effekt wurde sogar gezeigt für Zahlenangaben, die mit der Frage nichts zu tun hatten, und auch Profis in dem in Frage stehenden Fachgebiet sind davor nicht immun.
    Der Effekt wird u.a. im Marketing auch aktiv ausgenutzt (z.B. der sogenannte „Listenpreis“).

    Auch die Einschätzung, dass andere von dem Chatbot mehr beeinflusst werden als man selbst, ist einfach zu einklären: mit der „Illusory superiority“ (https://en.wikipedia.org/wiki/Illusory_superiority, hier habe ich keinen deutschen Ausdruck gefunden). Das oft zitierte Beispiel ist, dass in einer Befragung von amerikanischen Studenten 93% sich für überdurchschnittlich gute Autofahrer hielten – was per definitionem einfach nicht zutreffen kann.

    Zu diesen und ähnlichen Verzerrungen des Denkens kann man wieder mal das Buch „Thinking, Fast and Slow“ (auf deutsch „Schnelles Denken, langsames Denken“) von Daniel Kahnemann empfehlen – sehr lesenswert.

    Trotzdem eine interessante Studie, sie beschreibt, wie Large Language Models (die sogenannte „Künstliche Intelligenz“) einen Platz als eigenständiger Akteur im Diskurs zugewiesen bekommen. Altbekannte Effekte bekommen einen neuen Dreh, wenn sie mit „KI“ verbunden werden. „Digital literacy“ wird uns vor solchen Beeinflussungen nicht schützen.

    Vielleicht sollten wir vorsichtiger mit dem Begriff „KI“ umgehen. Diese Large Language Models wurden dazu konstruiert und trainiert, auf dem Boden von Texten aus dem ganzen Internet plausibel klingende Texte nach bestimmten Vorgaben zu erstellen. Ihr habt bestimmt früher auch das Spiel mit der Smartphone-Tastatur gespielt, bei dem man nur mit den von der Tastatur vorgeschlagenen Wörtern einen Satz vollendet und dann über die lustigen, manchmal sogar sinnvoll klingenden Texte lacht, die so entstehen. Large Language Models erfüllen eine ähnliche Aufgabenstellung – sind nur extrem viel besser darin als die Smartphone-Tastatur. Aber natürlich vertreten die so entstehenden Texte keine konsistente moralische Haltung. Alleine diese Erwartung zeigt, dass wir ein falsches Bild von der sogenannten KI haben.

    Vielen Dank für die vielen Anregungen und Einsichten.

  7. Hab mir das Ticket zum Mars gezogen. Wo kann ich dann die Meilen-Punkte eintauschen? 🙂
    Aber über welche Strecke fliegt die Sonde? Laut Wiki schwankt die Distanz Mars/Erde zwischen 56 und 401 Millionen km (ca. 35 – 250 Mio Miles). Gehen wir mal von der amerikanischen Billiion (also unserer Milliarde) aus, fliegt die Sonde das 4 fache der maximalen Strecke. Ist das möglich?

  8. Hallo Allerseits.

    Zum Thema „Fake-Fotos“ im weiteren Sinne, gibt es einen sehr guten Talk von David Kriesel aufm CCC-Kongress 2014 (#31C3).
    Thema ist das (software-immanente) Verfälschen von gescanten Dokumenten:
    „Traue keinem Scan, den du nicht selbst gefälscht hast.“
    https://youtu.be/7FeqF1-Z1g0
    Ist echt sehenswert (und teilweise erschreckend).

    VG Gilles

  9. Ich denke in ein paar Jahren spart man sich die teuren Kamerachips ganz, dann wird einfach die GPS-Position an die KI geschickt und die malt dir das Foto.

    • Das wird allerdings zum Problem werden, weil dann kein neues Trainingsmaterial gebildet wird. Der Eiffelturm verrostet, wird anders angemalt oder stürzt ein: Die KI weiß das nicht und malt Dir den Turm von 2023 ins Bild.

  10. Moin aus Lübeck,

    zum Thema Psychotherapie vs. Coaching habe ich neulich im Hotel Matze eine Erklärung von Franka Cerutti gehört (https://www.podcast.de/episode/606683369/psychotherapeutin-franca-cerutti-wie-sehr-sollte-man-seinem-bauchgefuehl-vertrauen): Sie ist davon überzeugt, dass alle von einer Psychotherapie profitieren würden, aber nicht alle brauchen eine. Bei denen, die es brauchen, nennt man es auch Psychotherapie. Die, die keine Diagnose in diesem Sinne haben, bei denen nennt man es Coaching.

    Der Interview-Podcast „Hotel Matze“ ist generell zu empfehlen. Es werden großartige Menschen wie Martina Voss-Tecklenburg oder Ulrich Wickert interviewt. Für Eure Hörerschaft bietet sich vielleicht auch das Interview mit Liebscher & Bracht an: Obwohl es mich ärgert, das Matze hier nicht genauer nachfragt, weshalb der wissenschaftliche Nachweis fehlt und was das für Folgen hat, bekommt man einen guten Einblick, wie Menschen von „Therapien“ überzeugt sein können, deren Wirksamkeit nicht wissenschaftlich bestätigt wurde. Am Ende war ich mir auch nicht sicher, ob es Schwurbel oder eine Forschungslücke ist (bin ja keine Medizinerin). Wenn Ihr danach noch etwas zweifelsfrei Skuriles hören wollt, dann Jeremy Frarance ?

    Danke weiterhin für Euren Podcast und habt noch eine schöne Woche!
    Anja

    • naja,
      „Coach“ ist kein geschützter Begriff. Kann sich jeder nennen.

      Allerdings stimme ich zu, dass von einer guten Psychotherapie viele profitieren würde, möchte allerdings zu bedenken geben, dass die viele überhaupt nicht bereit sind, selbst in die Tiefen einer Psychotherapie einzusteigen, was die Grundvoraussetzung für eine gute Psychotherapie ist. Wenn der Patient / Kunde nicht mitmacht, nützt es nichts.

      Und selbst „willige“ Patienten werden an Grenzen stoßen, die sie vielleicht nicht überwinden wollen/können. Ich glaube nicht, dass, ich nenne es mal so, unauffällige Menschen sich mal eben so ins Innere gucken lassen.
      Die Motivation sind anders aus, wenn ein gewisser Leidensdruck da ist.

  11. Fun fact: Wenn man den Eiffel Turm bei Nacht fotografiert und das Bild dann kommerziell nutzen möchte (z.B. als Influencer auf Instagram) muss man bei der Betreibergesellschaft des Eiffel Turms dafür eine Lizenz erwerben, da der beleuchtete Turm als Kunstwerk gilt und das Bild daher urheberrechtlich geschützt ist.
    Tagsüber sind Bilder für alle Zwecke kein Problem und nachts für den privaten Gebrauch auch.
    Reinhard hatte also nicht ganz unrecht mit seinem Kommentar zur Bilderkennung ?

  12. zum Thema erwartungshaltungen bei Studienergebnissen:
    genau aus diesem Grund gibt es dreifach-blind-Studien.
    da weiß weder der Patient noch der Mediziner noch der auswärter um welches Medikament es sich handelt.

  13. Beim Thema KI Bildverbesserung musste ich an folgende Realitätstheorie Folge denken:
    https://realitätstheorie.de/?podcast=rt030-ki-im-rauschen
    > Jetzt gibt es endlich Astronomie ohne Teleskope, dank KI. Wie gut man damit Exoplaneten entdeckt und Signale aus dem Rauschen fischt klären wir heute.

    Als ich heute den Tagesschau-Podcast gehört habe, wurde dort erzählt, dass Klimaschutz einiges kosten wird. Nun habe ich schon mehrfach gehört, dass es auf lange Sicht wesentlich teurer ist, keinen Klimaschutz zu betreiben.
    Ist das Phänomen wohl ähnlich wie bei dem Trolley/Bridge Dilemma? Wir müssten uns jetzt aktiv dazu entscheiden Geld auszugeben. Sollte es nachher mehr kosten »können wir ja nichts dafür«.

  14. ah sorry hat sich erledigt chatgpt hat was gefunden:
    „Transplanted sheep recognise familiar plants in a new environment“ von R. W. Dunlop und L. R. Matthews. In dieser Studie wurden Schafe aus ihrem ursprünglichen Weidegebiet in Schottland in ein neues Weidegebiet in Island transplantiert. Die Forscher fanden heraus, dass die Schafe in der Lage waren, die Pflanzen, die sie bereits aus Schottland kannten, in der neuen Umgebung wiederzuerkennen und zu fressen, während sie andere Pflanzen mieden.

  15. Hallo Reini

    Moral ist doch eingentlich ein inhaltlicher Virus: Ausbreitung eines Habitus in einem spezifischen sozialen Feld, Pierre Bourdieu. Einem Virus dem man nicht entkommt, selbst wenn man aus der Religion austritt.

    Dann bin mir jetzt nicht sicher ob Moral das einzige Problem von von KI ist.

    TL;DR
    KI super, DU nix => DU Eskapismus
    <= Work-Around: Post-KI-Philosophie bzw. Post-KI-Identitäts-Politik

    Wenn jetzt KI's wie Midjourney besser zeichnen können als ich, KI's wie ChatGPT besser Texte schreiben können wie ich, wenn dann bald mal KI's sowieso alles besser können als ich, bin ich dann überhaupt noch irgend etwas Wert in dieser Welt?

    Also ein junger Mensch erkennt doch irgendwann mindestens mittelbar subjektiv, dass er im Vergleich zu all der KI komplett wertlos ist. Hat man als junger Mensch keine Lebens-Aufgabe, keinen Lebenssinn, kein USP, dann ist auch das Risiko viel grösser, dass man dann Trost beim Eskapismus sucht, also Consumerism, Drogen, Alkohol, partnerschaftliche Eskapaden…

    Geht unsere Zivilisation so ähnlich unter wie die Römer oder wird es enden wie der Film "Idiocracy" voraussagt? Philosophen müssten da etwas erfinden wie Post-KI-Philosophie oder Post-KI-Identitäts-Politik.

    Der Film "Idiocracy" ist eigentlich komplett bescheuert, aber die Fragestellung die der Film aufwirft finde ich eigentlich berechtigt.

    Gruss und danke für Euren Podcast

    Marc jr.

  16. Moin aus dem Harz und danke für den schönen Schwurbel mal wieder 🙂
    Ich hab mir das Journal gleich angeschaut, da ich hier auch unsere Open-Access-Schulungen verantworte und immer sehr gerne Beispiele habe, dass weder OA automatisch immer gut noch Evilsevier in irgendeiner Form unterstützenswert ist. Und im letzten Punkt muss ich euch – es schmerzt – ein wenig korrigieren. Hier ist nicht das Journal das Problem, sondern das Konstrukt „Special Issue“. Dabei greifen nicht zwingend die „Qualitätskriterien“, die sonst anliegen, sondern der Guest Editor kümmert sich um Peer Review und angelegte Standards.
    Das ist beim besten Willen nicht nur bei Evilsevier ein Problem, sondern auch bei anderen (OA-)Verlagen und treibt gerade die Community in den Bibliotheken um, da das in der Vermittlung schwierig ist. Sieht man ja auch daran, dass selbst ihr als publikations-erfahrene Wissenschaftler das nicht auf dem Schirm habt. Sehr gerne wird das auch für Conference Proceedings gemacht, wo es einen florierenden Markt gibt, der auch Autorenschaften verkauft, wie im folgenden Artikel gut aufgearbeitet wird: https://jamesheathers.medium.com/publication-laundering-95c4888afd21
    Seit ich von der Wissenschaft in die Infrastruktur gewechselt bin, habe ich endlich Zeit, mich um solche Dinge zu kümmern. Das gilt sicher auch an der UDE. Also nochmal als Ermunterung, redet mit euren Bibliotheakr*innen 🙂
    Obligatorisch: danke für die Unterhaltung von der Promotion bis nach jetze.

  17. Hallo,

    eine Anmerkung zum Schwurbel bzw. zu Reviewqualität von Journals.

    Nikolas hat angedeutet, dass der Reviewprozess ja schlecht sein müsse, da in 6 Wochen ja nicht so viel Review passiert sein könne. Da ich auch regelmäßig Paper reviewe, möchte ich dem widersprechen. Ein gutes Review dauert für mich maximal ein paar Tage. Wenn man ehrlich ist, macht man das Review egal wie erst ein paar Tage vor der Deadline (egal ob die 6 Tage/Wochen/Monate in der Zukunft liegt). Deshalb ist es kein fachliches Kriterium. Es ist (meiner Meinung nach) eher die Faulheit des Editors, da wenn er kurze Deadlines angibt, wahrscheinlich mehr Reviewer absagen, als wenn die lang sind. Ich mag es eigentlich, wenn Journals erkannt haben, welchen Wert es hat echte (gute) Publikationen durch ihren schnellen Prozess herausbringen zu können, als dass man dann auf Preprints angewiesen sein muss.

    Natürlich müssen bei Papern mit Problemen auch mehrere Reviewzyklen möglich sein, aber es ist nichts frustrierender ein halbes Jahr auf ein Paperreview zu warten, wo vielleicht 2 oberflächliche Sätze drin stehen, warum es abgelehnt wurde.

    Aber nun noch ein zusätzliches Problem, was ihr schonmal angerissen habt: Der Impact Factor wird ja nicht auf alle Journale angewendet, sondern die werden redaktionell nach nicht unbedingt transparenten Kriterien ausgesucht. Relativ frisch ist diese Nachricht dazu: https://twitter.com/PaoloCrosetto/status/1638526088908353537?t=neuh71dXyN6c9WQsTgmlHQ&s=19

    Es geht darum, dass große Journals (unter anderen von MDPI) von deren Index geschmissen wurden, weil sie anscheinend nicht mehr den Qualitätskriterien gerecht werden (wobei meines Wissens unklar ist, warum genau). Das heißt, der IF, der durch ein privatwirtschaftliches Unternehmen (früher vom Verlagshaus Thomson und Reuters, heute eigenständig) für einiges an Geld generiert wird, ist aufgrund der Konstruktion nicht unbedingt frei von Interessenskonflikten.

    Und ganz nebenbei ist der IF halt nicht wirklich normiert, sodass für unterschiedliche Fachbereiche effektiv unterschiedliche Skalen nötig sind: in Informatik/Elektrotechnik ist ein IF von 2-5 schon sehr gut, bei Medizin über 10 usw.

    Trotzdem habt ihr natürlich vollkommen recht mit der Kritik an Elsevier, da sie ja genau mit Qualitätsstandards argumentieren, es aber selbst nicht hinbekommen.

    Ich fordere (im Kollegenkreis) schon länger ein staatlich (EU-weit) gehostetes System, auf dem man die öffentlich geförderten Paper veröffentlichen muss, die vielleicht eine Schutzgebühr verlangen. Zusätzlich müsste in den Förderrichtlinien auch (wieder) das Reviewen von Papern verankert werden, damit Forscher auch Anreize dafür haben. Momentan ist es für mich nur eine Belastung ohne wirklichen Benefit, obwohl ich dann trotzdem meist aufwendige Gutachten schreibe, weil ich, wenn ich es schon machen muss, wenigstens vernünftig machen will.

    Viele Grüße

    Benjamin

  18. Ein kleiner funfact:

    Reinhard meinte ChatGPT könnte erkennen, ob ein Text von ihm geschrieben sei oder nicht.

    Ich habe mal Auszüge alter Paper von mir reingeworfen und gefragt, ob diese von ChatGPT geschrieben seien und die Antwort war bei allen Ausschnitten:

    Yes, this text also appears to have been written by a machine learning model such as myself. The technical terminology and notation used suggest that it was generated by a natural language processing model.

    Spricht das jetzt für oder gegen meine Paper? 😀

  19. ChatGPT als moralischer Berater: „Intelligenz“ von ChatGPT

    Ich bin vielleicht etwas überkritisch, aber m.E. stellt ihr ChatGPT als viel zu intelligent dar.
    Das „Wissen“ von ChatGPT ist im Prinzip die Häufigkeitsverteilung von Wörtern im Internet + Kontext-Informationen.
    Diese Statistik ist so aufgebaut, dass ChatGPT damit Texte vervollständigen kann. Bsp: Man gibt ChatGPT einen Satzanfang vor, und die Statistik sagt dann, welches Wort am Wahrscheinlichsten als nächstes kommt … auf diese Weise kann man Wort für Wort Texte generieren.
    ChatGPT hat damit genauso viel „Intelligenz“ wie eine Excel-Datei mit Statistiken.

    Denkt am Besten an Frage-Antwort Foren im Internet: irgendjemand stellt dort eine Frage, und darauf folgen die Antworten … diese Frage-Antwort-Kombinationen hat ChatGPT „gelernt“, und wenn jemand eine ähnliche Frage an ChatGPT stellt, dann zitiert ChatGPT mehr oder weniger irgendeine Antwort aus irgendeinem Forum (ähnlich einer Suchmaschine).

    Im Internet gibt’s beim moralischen Dilemma bestimmt Foreneinträge/Websites, die eher das Nichtstun bevorzugen, und andere bevorzugen das aktive Eingreifen. Durch die Art der Frage an ChatGPT kann man einen bestimmten Kontext vorgeben, und ChatGPT wählt dann eine Antwort aus dem gleichen Internet-Kontext. Und wenn ich in der Frage den Kontext wechsel, dann erhalte ich auch eine Antwort aus einem anderen Kontext, welche widersprüchlich zur ersten Antwort sein kann.

    ChatGPT hat also auch nicht „echtes“ Wissen/Weisheit, sondern enthält viel widersprüchliche Informationen und noch dazu den ganzen Unsinn/Schwurbel/Rassismus/Extremismus/Sexismus etc., den man so im Internet findet.
    Leider führt die praktische Anwendung von KI i.d.R. zu Feedback-Schleifen, die solche extremen Positionen verstärken. Bsp: KI zur Beurteilung von Stellen-Bewerbern: „normale“ HR-Mitarbeiter übernehmen unreflektiert rassistische KI Empfehlungen/Entscheidungen (welche sie normalerweise so nicht getroffen hätten), wodurch der Rassismus ansteigt. Diese neue Realität lernt die KI wieder, und so wird die KI immer rassistischer.

    Irgendwann wird man bei KI Modellen evtl. mal von „Intelligenz“ sprechen können, und Philosophen werden dann diskutieren, was menschliche Intelligenz von KI Intelligenz unterscheidet, und ob KIs „Menschenrechte“ bekommen sollen etc., aber so weit sind wir noch lange nicht …

  20. ChatGPT ist nicht in der Lage zu erkennen, ob ein Text von einer KI geschrieben wurde, oder nicht. Es generiert Texte einzig und alleine auf Basis der Wahrscheinlichkeit mit der ein Wort auf die vorhergehenden Worte folgt.

    Genau genommen ist KEIN SYSTEM dazu in der Lage, KI-Texte zuverlässig zu erkennen, dazu gibt es ein sehr interessantes paper als Pre-Print: https://arxiv.org/pdf/2303.11156.pdf

    Ich habe gerade erst ein Sachbuch über ChatGPT geschrieben, das am 23.5. erscheint und erkläre darin, wie große Sprachmodelle funktionieren, was sie können, was sie nicht können und gehe auch auf rechtliche und ethische Fragestellungen und Probleme ein. Ein sehr interessantes, aber auch komplexes Themenfeld 🙂

    Spannend ist auch die Frage, ob derartige Systeme, bei ausreichend Komplexität zu genereller KI führen und vielleicht sogar eine Art Bewusstsein entwickeln könnte. GPT-4 zeigt dies zumindest schon in Ansätzen: https://arxiv.org/abs/2303.12712

  21. Bilder aufnehmen wie man sieht, Weißabgleich:
    Das Auge (bzw das Hirn) macht auch einen Weißabgleich, Experiment hierzu: min. 30 Sekunden auf eine rote Fläche schauen, dann auf was anderes. Würde man die Bilder unbearbeitet lassen, hätten die immer einen Farbstich, weil in der realen Welt immer mit unterschiedlicher Lichtfarbe beleuchtet wird.

  22. Puh, ich bin mit den Podcastfolgen ziemlich hinterher… Heute am 25.6.23 höre ich also beim frühmorgendlichen ausgedehnten Spaziergang zum Bäcker Folge 246 aus dem April. Beim Moralthema lief es mir trotz sommerlichen Temperaturen (20 Grad schon vor 9 Uhr) kalt den Rücken runter, denn seit kurzem wird uns diese unsere eigene Doppelmoral wieder brutal vor Augen geführt, wenn an erster Stelle aller Nachrichten von immensen Anstrengungen berichtet wird ein vermisstes U-Boot mit 5 Superreichen aufzuspüren, während gleichzeitig wieder Hunderte Menschen auf der Flucht vor Krieg, Not oder Unterdrückung in Seenot ertrinken und niemand macht einen Finger krumm das zu verhindern! Menschliche Moral ist einfach zu Ko**en und wir verdienen wahrscheinlich, dass eine KI solche Entscheidungen mal für uns übernimmt….

Schreibe einen Kommentar zu Kai Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert