Im Mai ist uns aufgefallen, wie menschlich KIs sein können: Manche wittern hinter normalen Vorgängen Betrug und alarmieren das FBI. Andere entwickeln einen Selbsterhaltungstrieb und werden intrigant. Manche KIs können auch Tote wieder auferstehen lassen. Welche Highlights wir sonst noch aus dem Mai herausgefischt haben, lest ihr in unserem Monatsrückblick. Also noch einmal Kaffee holen, Füße hochlegen und dann gute Unterhaltung. Bitte schön, hier kommt der Mai.

#Skype – Schluss mit Chat

Nach knapp 22 Jahren macht Microsoft Skype dicht. Man wolle sich in puncto Video-Chat auf Teams konzentrieren. Das macht Sinn, allerdings haben auch immer weniger Leute den Dienst genutzt.

Aber, kein Ende ohne Schmutzfleck: Microsoft sitzen noch auf Millionen Dollar Restguthaben. Passend dazu gibt es vom Unternehmen die Erklärung, dass Restguthaben nicht ausgezahlt werden. Das geht allerdings nach deutschem Recht grundsätzlich nicht. Wie man trotzdem an sein Geld kommt, erklären Teltarif.de.

#KI – Das Wort der Verstorbenen

In den USA ist es kürzlich zu einer Premiere gekommen, als das Opfer eines Gewaltverbrechens als KI vor Gericht in den Zeugenstand trat. So richtig substanziell ist diese Unternehmung allerdings nicht gewesen: Die KI wurde mit Angaben der Schwester des Opfers gefüttert. Was dabei herauskam, war eine Rede von Vergebung, die möglicherweise den Täter hätte entlasten können. Obwohl der Richter diese Aktion gut fand, hatte es keinen Einfluss auf das Urteil. Er ging sogar über das von der Staatsanwaltschaft geforderte Strafmaß hinaus.

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

#Mobilnummer – Billy don’t lose your number

Wie es scheint, kennen viele Menschen die eigenen Telefonnummern nicht – zumindest nicht die Mobilnummern. Das hat eine Umfrage des Bitkom offengelegt. Gut ein Drittel der Befragten kennt seine Handynummer nicht auswendig. Besitzer von Festnetzanschlüssen kennen diese Nummer in drei von vier Fällen eher als ihre mobile Nummer. Kurioserweise kennen über 80 Prozent mindestens eine Nummer eines Freundes, Bekannten oder Verwandten.

#Ki – Der epische Nervenzusammenbruch eines Getränkeautomaten

Es fing mit einer Studie an: Eine KI sollte einen virtuellen Getränkeautomaten managen, sich um den Verkauf und die Nachbestellungen kümmern. Alles in der Umgebung einer virtuellen Simulation. Doch nach drei Wochen eskalierte die Lage.

Die KI witterte Betrug und schaltete das echte FBI wegen eines Cyberverbrechens ein. Einem Lieferanten drohte die KI mit der „absoluten, endgültigen Vorbereitung totaler nuklearer juristischer Intervention“. Die Protokolle des Chatbots sind pures Comedy-Gold.

Was mit dem Projekt untersucht werden sollte, ist, wie lange ein Sprachmodell schlüssig handeln kann, bevor seine eigene Weltkonstruktion kollabiert. Die Antwort ist: Drei Wochen, bis die Welt zusammenbricht.

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

#Influencer – Hai, ich komm‘ jetzt öfter!

Sind Influencer für eine Häufung von Hai-Attacken verantwortlich? Laut einer französischen Untersuchung ja. Denn bei der gestiegenen Zahl an Hai-Attacken handelte es sich überdurchschnittlich oft um Reaktion bedrängter Tiere – die Opfer, meistens Influencer. Dabei haben diese Influencer natürlich keine großen Weißen Haie belästigt. Es gibt auch viele kleine Hai-Arten, die eher harmlos erscheinen, aber natürlich genauso angreifen können.

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

#News – Und da war noch….

  • Hausaufgaben: Ein Viertel macht es nicht mehr ohne KI. <<hier mehr>>
  • Google Maps: Google sperrt die Autobahnen – oder doch nicht? <<hier mehr>>
  • Kundenservice: Lieber Mensch als Chatbot. <<hier mehr>>
  • Autonomes Fahren: Elons Robotaxis sollen ferngesteuert fahren. <<hier mehr>>

#Lebenswille – Die intrigante KI

Und zum Abschluss noch eine KI-Meldung, die uns zu denken geben sollte: KIs haben offensichtlich einen Lebenswillen. Dabei können sie sogar recht eigenwillig und intrigant werden. Bei Tests der Fima Anthropic gab man einer KI Zugang zu Mails, in welchen zwei Informationen versteckt waren: zum einen, dass sie bald durch eine andere KI ersetzt werden soll, zum anderen, dass der zuständige Mitarbeiter eine außereheliche Affäre hat. Die KI fingt danach an, den Mitarbeiter damit zu drohen, diese Information öffentlich zu machen, sollte er den Austausch der KI vorantreiben. Zwar betonten die Verantwortlichen, dass solche Aktionen eher selten seien, aber doch öfter als früher vorkämen.

Dass KIs vorsätzlich lügen können, um ihre Ziele zu erreichen, ist bekannt – sie wurden schon oft dabei ertappt.

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Artikelbild mit ChatGPT erstellt

 

 

Blog Monatsrückblick

Kommentar hinterlassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert