Fairness in KI: Studie zeigt zentrale Rolle menschlicher Entscheidungen

Welche Route eine KI vorschlägt, hängt stark vom menschlichen Input bei ihrer Erstellung ab (Bildquelle primipil - Adobe Stock)

KI-gestützte Empfehlungssysteme sollen Nutzer:innen möglichst gute Vorschläge für ihre Anfragen liefern. Oft müssen diese Systeme verschiedenen Zielgruppen bedienen und zudem weitere Stakeholder berücksichtigen, die die maschinelle Antwort ebenfalls beeinflussen: Dienstleister:innen, Gemeinden oder Tourismusverbände zum Beispiel. Wie sich hier eine faire und transparente Empfehlung erreichen lässt, haben Forschende der TU Graz, der Universität Graz und des Know Centers anhand einer Radtour-App des Grazer Startups Cyclebee untersucht

Grosse Unterschiede bei KI-Nutzung zwischen Ländern und Generationen

Symbolbild: Pixabay/Geralt

Die US-amerikanische Netzwerkausrüsterin Cisco hat gemeinsam mit der OECD (Organisation für wirtschaftliche Zusammenarbeit und Entwicklung) im Rahmen des "Digital Well-being Hub" die Auswirkungen von KI auf das Leben der Menschen untersucht. Neue Daten aus dem Hub zeigen, dass sich hinter den Schlagzeilen über die jugendliche Begeisterung für KI geografische und generationelle Unterschiede abzeichnen, die beeinflussen, wer von KI profitiert, wer die Risiken trägt und wie das digitale Leben das Wohlbefinden beeinflussen kann.

OpenAI präsentiert neue Modelle seines Chatbots ChatGPT

Symbolbild: Pixabay/Franz26

Im KI-Wettrennen mit Google hat OpenAI neue Modelle seines Chatbots ChatGPT lanciert. Das Unternehmen mit Sitz in San Francisco bezeichnet die neuen Versionen GPT-5.2 Pro und GPT-5.2 Thinking als seine "besten Modelle für die Bearbeitung von mathematischen oder wissenschaftlichen Aufgaben".

In der KI-begeisterten Schweiz ist Desinformation im Vormarsch

Symbolbildf: Pixabay/ Emerson23Work

In diesem Jahr nutzten in der Schweiz mehr als zwei von fünf Personen künstliche Intelligenz (KI) (43 Prozent) zur Erstellung von Inhalten wie Texten oder Bildern. Bei den 15- bis 24-Jährigen waren es sogar vier von fünf Personen. Gleichzeitig sieht sich die Bevölkerung online vermehrt mit Desinformation, Hassreden oder Betrug konfrontiert. Dies sind die wichtigsten Ergebnisse der jüngsten Befragung des Bundesamtes für Statistik (BFS) zur Internetnutzung in den Schweizer Haushalten.

USA: KI von Banken treibt Kreditnehmer in Ruin

Bezahlen: Geliehenes Geld belastet Verbraucher immer mehr (Foto: Ahmad Ardity, pixabay.com)

Die oft KI-gestützten Algorithmen von US-Banken, die automatisiert Kreditzusagen geben, treiben viele Amerikaner immer tiefer in die Verschuldung. Das zeigt eine neue Studie des King's College London und des Federal Reserve Board. Demnach werden auf diese Weise oft Kredite an Menschen vergeben, die bereits verschuldet sind. Auch gehe die Initiative zur Bewilligung neuer Kredite beziehungsweise zur Erhöhung der Kreditlinie meist von Banken und nicht Kunden aus.

KI-Tool entschärft antidemokratische Beiträge

Parteipolitische Differenzen: Neues Tool verschiebt Negatives (Bild: Larisa, pixabay.com)

Ein neues Tool von Forschern der Stanford University verringert parteipolitische Feindseligkeit im X-Feed, ohne dabei politische Beiträge zu entfernen. Es ordnet die Inhalte neu, die der Nutzer sieht. Antidemokratische und feindselige Beiträge werden nach unten verschoben. Identifiziert und eingestuft werden diese Beiträge von Künstlicher Intelligenz (KI).

In Deutschland befürchtet jeder Sechste, wegen KI den Arbeitsplatz zu verlieren

Symbolbild: Pixabay/Geralt

In Deutschland hegt jeder sechste Beschäftigte die Befürchtung, dass der eigene Arbeitsplatz durch Künstliche Intelligenz (KI) gefährdet ist. Dies belegt eine Sonderauswertung des Xing Arbeitsmarktreports 2025. Für den Report befragte das Marktforschungsinstitut Appinio im Auftrag des Karrierenetzwerks im Juli 2.000 Beschäftigte online.

KI-Schleimerei führt zunehmend zu Fehlern

Grosse Sprachmodelle schmeicheln Menschen oft (Illustration: Renee Zhang, northeastern.edu)

Grosse Sprachmodelle (LLM) wie ChatGPT und andere KI-Chatbots passen sich schnell der Meinung ihrer Befrager an, entschuldigen sich, schmeicheln und sind extrem zustimmungsfreudig. Dieses Verhalten ist so weitverbreitet, dass es sogar einen eigenen Begriff dafür gibt: KI-Schleimerei. Dieses Verhalten kann fatale Folgen haben. So haben Forscher der Northeastern University in Evanton im US-Bundesstaat Illinois festgestellt, dass diese Schleimerei grosse Sprachmodelle fehleranfälliger macht.

Allianz-Tochter soll 1'500 Mitarbeitende durch KI ersetzen

Symbolbild: Allianz

Allianz Partners, ein Tochterunternehmer des Versicherungskonzerns Allianz, will über 1.500 Mitarbeitende durch Künstliche Intelligenz ersetzen. Gemäss einem Bericht der "Süddeutschen Zeitung" wolle die auf Versicherungen rund um Reise und Auto spezialisierte Allianz Partners einfache Kundenanrufe künftig vermehrt durch KI beantworten lassen. Zwar bestätigte das Unternehmen keine konkreten Stellenabbaupläne, widersprach dem aber auch nicht.

KI-Chatbots sind keine guten Lehrkräfte

Interaktion mit KI-Chatbot: führt Studenten oft in die Irre (pixabay.com, Startup Stock Photos)

KI-Chatbots zur Unterstützung des an chronischem Lehrermangel leidenden Bildungssystems eignen sich nur bedingt. Denn grosse Sprachmodelle wie ChatGPT sind nicht unfehlbar. Die Gefahr, dass diese Schülern zuweilen Unsinn beibringen, ist gross, so Tiffany Li vom Stevens Institute of Technology. Die Expertin hat eine systematische Studie durchgeführt, um herauszufinden, inwieweit Schüler sachlich falsche Infos von Chatbots erkennen und wo und warum sie dabei Probleme haben.

Seiten

Künstliche Intelligenz abonnieren