Mi347 – „Gelogene Restkilometer“

Minkorrekt Live: Wir sind mit „Das M!perium schlägt zurück“ auf Tour! Tickets bekommt ihr hier – möge die Wissenschaft mit euch sein!

Alle Werbepartner findet ihr in diesem Linktree!

00:00:00 Intro
00:13:04 Citizen Science Galaxy Zoo
00:21:22 Aura-Forschung
00:30:47 freestyle physics
00:32:37 Thema 1: „Sterne lügen nicht – oder doch?“
00:59:56 Science Snack
01:09:03 Thema 2: „Say my Name!“
01:41:09 Schwurbel der Woche
01:50:18 Hausmeisterei
01:51:20 Outro

Ihr könnt der Nasa helfen: Zumindest als Hobby-Astronom:innen könnt ihr via die Citizen-Science-Plattform Galaxy Zoo Galaxien klassifizieren – anhand von Bildern des James Webb Teleskops.

Forschung entdeckt Aura? Wir finden die Formulierungen in den Artikeln leider ziemlich daneben, da das den Esoteriker:innen ziemlich viel Futter gibt. Dabei handelt es sich um chemische Reaktionen.

Thema 1 (Nicolas): Sterne lügen nicht – oder doch?“ – wir schauen wieder in die Sterne: Aber nicht in den Himmel, sondern in die Sterne-Bewertungen! Unser Gehirn hat das Bedürfnis, Bilder zu vervollständigen, und unter anderem das hat ordentlich Einfluss auf unser Bewertungs-Verhalten! Die Anzahl der Stern hat also nicht unbedingt etwas mit der tatsächlichen Zufriedenheit mit dem Produkt zu tun.

Science Snack: „Baby an Bord“ – Autoaufkleber können viel über die Besitzer:innen aussagen: aber was machen sie mit den Menschen, die sich die Dinger angucken? Ein Forscher hat das mal untersucht.

Thema 2 (Reini):Say my Name!“ – KIs rotten sich zusammen und gründen ihre eigene soziale Gesellschaft sowie Konventionen. Mit der Zeit setzten sich auch linguistische Systeme durch sowie bestimmte Namen in der Gruppe.

Schwurbel der Woche: „Homöosiniatrie“ – wir lieben Schwurbel, der kombiniert wird: traditionelle chinesische Medizin, plus Homöopathie á la Samuel Hahnemann, plus Nadeln: das ist Homöosinatrie – perfekt für den Schwurbel der Woche; danke Max für den Vorschlag!

Hausmeisterei: Wir sind auf Tour und einige Termine sind ausverkauft. Trotzdem lohnt es sich, da hin und wieder mal zu schauen, ob es nicht doch noch Tickets gibt. Manchmal werden einzelne Tickets doch noch kurzfristig frei.

Minkorrekt live: Das sind die nächsten Termine:

14.06.2025 Heilbronn
15.06.2025 Neu Isenburg
12.07.2025 Berlin (RESTKARTEN)
13.07.2025 Berlin
14.09.2025 Bielefeld
uvm! Alle weiteren Termine gibt es hier!

Outro: Intro aus Folge 76: “Vorstellung von Minkorrekt”

Wichtige Adressen:

Unsere Live-Termine und Tickets für unsere neue Show findet ihr hier!

Zu unserem Newsletter könnt ihr euch hier anmelden!

Folge uns gerne auf Mastodon, Instagram oder YouTube!

Hier findet ihr unseren Discord

Modisch inkorrektes Merch gibt es hier!

Minkorrekt! ohne Werbung bekommt ihr bei Steady

Hier findet ihr alle Möglichkeiten, uns zu unterstützen!

16 Gedanken zu „Mi347 – „Gelogene Restkilometer“

  1. Die Tatsache, dass Hegeseth Harvard-Absolvent ist (und publikumswirksam seinen Abschluss zurück gab), sollte doch schon ausreichend zeigen, dass das entweder keine „Kaderschmiede“ ist oder einen schlechten Job dabei gemacht hat

    • waaas? das wusste ich nicht. Hab mal kurz gegoogelt. Ist schon 2 Jahre her, also bevor klar war, dass er ein politisches Amt bekommt.

      Hegseth muss ja jetzt auch nicht super dumm gewesen sein, ultranationalistisch, misogyn und versoffen zu sein schließt ja ausreichend Intelligenz für einen Uniabschluss nicht aus. Er hat ihn außerdem in Politik gemacht, ist das nicht eher viel auswendig lernen und eloquent Worthülsen reden können?

  2. Zu Thema 2: Das Szenario, was Reinhard beschreibt, hat Tim Berners Lee 2001 sehr ähnlich (anhand eines Arzt Termins) beschrieben in: „Semantic Web. A new form of Web content that is meaningful to computers will unleash a revolution of new possibilities“ [1] (Volltext leicht bei Google Scholar zu finden). Der Unterschied ist, dass es hier tatsächlich darum ging, dass das rein technisch abläuft (über definierte Schnittstellen, Datenformate, etc.). Die dafür benötigte Technik – dass eben nicht KI mit KI telefoniert – ist also auch seit gut 2025 Jahren bekannt. Hat sich bisher aber nur in einigen Bereichen (wie Wikidata; die Faktenbasis unter Wikipedia) durchgesetzt. Der Unterschied ist, dass hiermit _echte_ künstliche Intelligenz möglicher wäre. Insofern: Was die aktuellen LLMs machen ist ja ganz nett, aber entspricht in gewisser Weise aber nicht dem, was eigentlich möglich wäre.

    [1] https://www.scientificamerican.com/article/the-semantic-web/

  3. @Sterne: Ich würde 3,5 Sterne auch objektiv besser als den Wert 3,5 einschätzen, weil es (meistens) den Bereich [3.5, 4) repräsentiert.

    @Say my name: Das Antwort-Verhalten fand ich nicht so interessant weil das Training der neuronalen Netze ja genau so ein Verhalten belohnt. Hat Amazon mit den Artikel-Vorschlägen nach einem Kauf auch schon vor dem LLM-Zeitalter geschafft 😉

  4. Hallo ihr beiden,

    Reinis Einordnung, dass wir so oft im Diskurs „KI“ sagen, aber dabei nur generative Modelle und Chatbots meinen, war wirklich Balsam fuer meine Seele <3

    Was dabei viel zu oft untergeht ist, dass es in der Forschungsgeschichte klassischerweise und seit ueber 70 Jahren tatsaechlich _zwei_ Geschmacksrichtungen von „KI“ gibt. Den konnektionistischen Ansatz, zu dem maschinelles Lernen gehoert und als Unterart davon auch die Large Language Models: Urspruenglich Klassifikatoren auf einem Open-World-Ansatz, wo ich kuenstliche neuronale Netzwerke trainiere, beispielsweise bei Computer Vision Katzen von Hunden zu unterscheiden. Das hat den grossen Vorteil, mit verrauschten Inputs umgehen zu koennen: Ich habe halt ein moeglicherweise unscharfes oder teilweise verdecktes Foto als Input, ich muss nicht strukturiert definieren zu muessen, was eine Katze oder einen Hund ausmacht, aber ich bekomme _mit einer gewissen Wahrscheinlichkeit_ einen Output, der sagt, dass es sich um eine Katze oder einen Hund handelt. Weil das konnektionistische Modell aber auf Statistik basiert, habe ich auch immer nur Wahrscheinlichkeiten beim Output. Wir kennen alle die Beispiele, wo Muffins faelschlicherweise als Chihuahas identifiziert werden, weil die Mustererkennung hier fehlschlaegt.

    Der andere Ansatz ist das symbolische Modell, wo ich tatsaechliches Wissen – also begruendete, wahre Ueberzeugungen, den Stand der Erkenntnis und der Forschung – so speichere, dass es maschinell nach logischen Regeln ausgewertet werden kann. Prolog ist so ein klassisches Beispiel: Ich kann typische Logikraetsel, die haendisch dann doch laengere Kniffelei erfordern wuerden, in Sekundenbruchteilen auf einem vergleichsweise „langsamen“ Computer logisch schluessig aufloesen. Was dafuer noetig ist: Das Wissen, auf das zugegriffen werden soll, muss maschinell auswertbar aufbereitet werden. Das stiess in der Geschichte der KI-Forschung immer wieder auf das Problem, dass diese Aufbereitung halt haendisch passierte und irgendwann das Forschungsprojekt zu Ende war und man die Hilfskraefte nicht mehr bezahlen konnte, die das in Handarbeit aufbereitet haben.

    Wir haben uns aber mittlerweile weiterentwickelt. Wir koennen Wissen nicht mehr nur in Texten oder Excel-Sheets ablegen, sondern die Semantik, was welche Spalte eigentlich bedeutet, auch maschineninterpretierbar speichern. Forschungsdatenmanagement spielt dabei eine riesige Rolle: Wie lege ich Messungen ab? Wie kann ich die Erkenntnisse eines Experiments so abspeichern, dass die Ergebnisse ganz vieler Experimente miteinander verknuepfbar sind und ganz strikt nach logischen Regeln, d.h. beweisbar und reproduzierbar ausgewertet werden koennen? Das ist am Ende auch „KI“, aber die Sorte, die keine stochastischen Falschaussagen macht wie ein LLM, sondern immer stets nachvollziehbar und rein auf der Faktenbasis arbeitet.

    Der FOMO-Effekt bringt gerade ganz viele Institutionen dazu, irgendwas „mit KI“ machen zu wollen, und weil „KI“ dabei synonym fuer LLMs verwendet wird, laeuft das immer auf irgendwas mit konnektionistischen KI-Ansaetzen heraus – und damit notwendigerweise unter Inkaufnahme, dass dabei nicht begruendbares Wissen als Ergebnis steht, sondern ein Ergebnis statistischer Verfahren – das wahr sein kann, aber nicht muss.

    Ich durfte mich im letzten halben Jahr damit beschaeftigen, was das eigentlich fuer Auswirkungen hat und warum es eigentlich fuer viele Bereiche sinnvoller sein koennte, eher symbolische KI in den Fokus zu nehmen und die Grundlagen fuer besseren Zugriff auf Wissen zu schaffen, anstatt halt irgendwas statistisch plausibles als Ergebnis zu bekommen. Vielleicht hilft euch diese Handreichung, die sich eigentlich vor allem an die oeffentliche Verwaltung richtet, auch fuer Ideen beim Umgang mit Forschungsdaten: https://commons.wikimedia.org/wiki/File:Generative_KI_f%C3%BCr_die_Verwaltung%3F_2025.pdf

    PS, ich habe in den letzten Monaten das Hobby entwickelt, Abfragen in Wikidata (was auf dem symbolischen KI-Ansatz und belegtem Wissen basiert) zusammenzusuchen, die in Sekundenbruchteilen und mit Pipifax-Energieaufwand beantwortet werden koennen, bei denen sich aber LLMs regelmaessig auf die Nase legen. Ein bisschen Background habe ich auch in meinem persoenlichen Blog (siehe Link) zusammengetragen. Ich freue mich sehr ueber Anregungen, was noch darunter fallen koennte!

  5. Zu eurer nun mehrfach gestellten Frage bezüglich „Freizeitpark-Aufklebern“:

    Das unbefugte Anbringen von Aufklebern an fremden Fahrzeugen kann als Sachbeschädigung nach § 303 StGB gelten und ist somit nicht erlaubt. Ohne die Zustimmung des Fahrzeughalters/Eigentümers ist das Anbringen von Aufklebern nicht zulässig.

    Die Person welche den Aufkleber angebracht hat ist haftbar (;)), jedoch eher Zivil-, nicht Strafrechtlich.
    Daher wird wohl eher kein Mitarbeiter eines Freizeitparkes dies tun.

  6. Was mich an der Entwicklung in den USA am meisten beunruhigt ist das negative Potential. Je länger dieser Verrückte dort ungehindert wüten kann und sich kein (merklicher) Widerstand in der Bevölkerung geschweige denn Impeachment-Verfahren regt, desto höher ist die Wahrscheinlichkeit, dass andere Länder sein Handeln als Vorbild sehen und seine Praxis im Rest der Welt Schule machen könnte. Und wie ihr schon meintet, wenn einmal diese Mühlen in Bewegung geraten sind, kann man diese nur langsam wieder zurückdrehen.

    Bei Bewertungen kann ich jetzt nicht sagen, ob ich ebenfalls dem Sternesystem auf den Leim gehe, allerdings versuche ich schon zu unterscheiden. Denn ich lese mir auch zumeist die negativen Kommentare durch (aus den positiven kann man oft nicht wirklich hilfreiche Informationen gewinnen), trenne aber diejenigen, sie sich z.B. über das Produkt selber oder nur über den Lieferservice oder in welchem Zustand das Produkt bei ihnen ankam, beschweren. Für den Lieferdienst kann der Händler ja in den seltensten Fällen etwas oder es sind Einzelschicksale. Man kann sich den Lieferanten ja meist sowieso nicht aussuchen oder es ist stark von der jeweiligen Tagesform des Fahrers abhängig, wie das Paket behandelt wird. Das hilft mir dann bei der Produktbewertung nicht und wird größtenteils ignoriert.

    Ob Rettungskräfte wirklich darauf achten, ob da Aufkleber auf den Autos sind, weiß ich nicht. Sollten sie es aber tun, finde ich, dass es ein hohes Potential zur Zeitverschwendung hat, zumindest wenn ein Aufkleber drauf, aber kein Baby drin ist. Dann vergäudet man womöglich kostbare Minuten in kritischen Situationen, bei denen es auf diese ankommt.

    Kann man diese „soziale“ Norm, die sich bei KIs herausbildet, wirklich mit der menschlichen vergleichen? Ich würde behaupten (und hoffen), dass sich Menschen nach dem Kant’schen Prinzip verhalten und andere so behandeln, wie sie selbst gern behandelt werden würden. Maschinen erkennen bestimmt nur ein Maximierungspotential, was es auszuschöpfen gilt. Wenn Maschinen merken, dass sich an der Kasse vordrängeln lohnt, wird es eben der Regelfall, egal, ob sich jemand aufregt (oder es dann doch wieder länger dauert, weil es im Endeffekt zu einem Last-In-First-Out-Prinzip kommt, und die hinteren in der Schlange verhungern).

  7. Ihr habt euch gefragt, warum man Menschen braucht, um Galaxien zu klassifizieren anstatt ein darauf trainiertes Maschinenlernmodell.

    Ein guter Grund wäre: Das Modell muss erst trainiert werden. Dazu braucht man Trainingsdaten mit Label (Label sind die „korrekte“ Klassifizierung). Von den Trainingsdaten braucht man so viele wie möglich, um eine gute Verallgemeinerung zu kriegen. Und dann braucht man noch mehr solcher Daten, um das Modell zu _testen_, um sicherzustellen, dass es korrekt arbeitet.

    Diese Daten müssen notgedrungen von Menschen erstellt werden. Das ist eins der Grundprobleme, wenn man ML-Modelle trainieren möchte. Selbes Problem bei medizinischen Daten (z.B Krebserkennung). Man braucht viele Daten, und die müssen jeweils von gut bezahlten Ärzten einhestuft werden

  8. Hallo Nicolas, hallo Reinhard, ich finde es generell fragwürdig, einen Artikel zu verlinken, der in „Die Welt“ veröffentlicht wurde. „Die Welt“ ist, wie „die Bild“, eine Zeitung, die vom Axel Springer Konzern herausgegeben wird und für unseriösen Journalismus steht. In anderen Worten, In der Welt steht inhaltlich das selbe wie in der Bild, nur eben in anderer Aufmachung. Und ich mir anschaue, wer bei der Welt tätig ist, z.B. die für ihre polemischen Texte bekannten Journalistinnen Ulf Poschardt und Anna Schneider, kann ich die Welt genauso ernst nehmen wie die Bild, nämlich überhaupt nicht.

    • Hi Uli,
      das ist uns alles bewusst. Hier ist der Kontext der Verlinkung ja ein negativer und kein positiver.

      Lieben Gruß
      Reinhard

  9. Hallo ihr lieben, danke einmal mehr dass ihr mir lästige Krankenhausaufenthalte versüßt!
    Zu Thema 1 und dem „2,99€-Problem“ ist mir eingefallen: Grade um Kindern das nahe zu bringen könnte man doch da gut mit Spielgeld zum selber ausmalen arbeiten. Damit sehen sie dann ganz schnell, wie die Lage tatsächlich ist, ganz ähnlich wie mit dem Sternen. Oder man führt Kopfrechnen im Supermarkt wieder ein und spricht demnächst nur noch von 3€-1Cent oder so. Rein mathematisch das gleiche, birgt aber einiges an Schrulligkeit 😅

  10. Jetzt muss ich doch mal klugscheißen zum Thema „Baby an Bord“-Aufklebern: mein Expartner war bei der Freiwilligen Feuerwehr und hat es mir damals so erklärt:
    diese Aufkleber sind dafür gedacht, dass Rettungskräfte hier schneller hingucken und vorsichtiger bei Rettungsarbeiten vorgehen. Also nach der Studie eine Informations-Funktion.

    und eine wie ich finde schöne Ergänzung zu den Rätselstickern: ein roter Aufkleber, auf dem steht „Wenn dieser Sticker blau erscheint, fahre ich zu schnell.“ Klassiker, aber ich liebs

    Macht bitte weiter so, Ihre Beiden, im Kampf gegen Missinformation und grobe Schwurbelei!

  11. Eine kleine Ergänzung zur myflexbox, weil ich neulich genau das gleiche Problem wie Reini hatte: Ich habe eine UPS-Sendung bekommen, die in der nyflexbox-Packstation gelandet ist. Da der Versender aber weder meine Telefonnummern noch meine Mail-Adresse mit der Sendung verknüpft hat, habe ich zwar eine Info Notice von UPS im Briefkasten gehabt, aber keinen Code bekommen. Ich habe nach einem erfolglosen Telefonat mit UPS dann entdeckt, dass es eine Customer Service Seite von myflexbox gibt: https://customer.myflexbox.de/services
    Für UPS kann man dort mit der Info Notice Nummer und einer Handynummer sich einen Abholcode schicken lassen. Reini hätte das bei FedEx nicht geholfen, aber ich habe die Hoffnung, dass das hier vielleicht für irgendwen nützlich sein könnte, weil über eine Suchmaschine konnte ich keine Hilfe finden…

  12. Moin,
    da ich das Thema interessant finde aber die glaubwürdigkeit/Reife nicht gut einschätzen kann:

    Sennary, M., Shah, J., Yuan, M. et al. Light-induced quantum tunnelling current in graphene. Nat Commun 16, 4335 (2025). https://doi.org/10.1038/s41467-025-59675-5

    Bin über diesen Artikel darauf aufmerksam geworden: https://news.arizona.edu/news/u-researchers-developing-worlds-first-petahertz-speed-phototransistor-ambient-conditions

    Vllt ist das was für eine der kommenden Folgen? 🙂

    LG und weiter so 😀

  13. Hallo Nicolas, hallo Reinhard, erst mal vielen Dank für die tolle Folge und euren unermüdlichen Einsatz für die Wissenschaft. Ich habe zu den beiden Themen jeweils eine Anmerkung.

    Ihr könnt auch der ESA mit einem Citizen Science Projekt bei der nächsten Mondlandung helfen, indem ihr Mondkrater kartografiert. Damit das Ganze auch Spaß macht, wurde das Ganze in ein Spiel verpackt:
    https://store.steampowered.com/app/3088540/IMPACT/
    https://play.google.com/store/apps/details?id=com.hochschuledarmstadt.esaimpact
    Laut den Verantwortlichen soll auch als Bonus sozusagen eine SD-Karte mit Namen der Beteiligten mit einer Sonde ins All geschossen werden. Es soll wohl auch Bestrebungen geben, dass nach den Top Contibutoren auch Krater benannt werden. Ein sehr hörenswertes Interview findet ihr hier (auch für Nicht-Informatiker geeignet):
    https://www.programmier.bar/podcast/deep-dive-181-gamification-mit-prof-stephan-jacob

    Wenn zwei KIs miteinander kommunizieren und sich als solche erkennen, können diese in den Gibberlink Modus wechseln. Das ist effektiver als die menschliche Sprache. Hört sich so an: https://youtu.be/R74Qs74dhwU?si=pnJiPNUol3uLw1DK
    Ich denke, künftig werden die KIs mit den Diensten direkt über das Model Context Protocol (MCP) kommunizieren, es wird keine Notwendigkeit geben auf Sprache zurückzufallen: https://de.wikipedia.org/wiki/Model_Context_Protocol
    Auch hier gibt es eine schöne Podcast Folge: https://www.programmier.bar/podcast/deep-dive-179-model-context-protokoll-mcp-mit-philipp-schmid

  14. Nachtrag zu den Sterne-Bewertungen:

    Ich suche gerade etwas auf einem bekannten Vergleichsportal. Ich habe den Filter auf „mind. 3 Sterne“ eingestellt. Die ersten Treffer haben 2,5 Sterne.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert