WLAN: Überwachungsfalle in Funknetzwerken

WLAN: KIT-Forscher mahnen zur Vorsicht (Bild: pixabay.com, kalhh)

Forscher des Karlsruher Instituts für Technologie (KIT) können Personen allein anhand von WLAN-Signalen erkennen. Damit weisen sie auf ein erhebliches Risiko für die Privatsphäre hin. Das Verblüffende: Personen müssen für die Identifikation kein Smartphone oder Tablet bei sich tragen. Es reicht, dass WLAN-Geräte in ihrer Umgebung miteinander kommunizieren.

Tiktok: "Benadryl Challenge" überdauert Jahre

Logobild: Pixabay, Konkar Ampelas

Die fragwürdige "Benadryl Challenge" vor allem auf Tiktok, die dazu auffordert, das gleichnamige Antihistamin zu schlucken und die Folgen zu filmen, überdauert laut einer Analyse der University of Oklahoma Jahre. "Die Tatsache, dass wir auch Jahre nach dem ersten Aufkommen der Challenge weiterhin einen Anstieg des schädlichen Diphenhydramin-Konsums beobachten, zeigt, wie mächtig und gefährlich Social-Media-Trends sein können", sagt Forscherin Noelia Swymeler.

Selektives KI-Training verhindert Missbrauch

Yarin Gal: Er und seine Kollegen entschärfen Generative KI (Foto: University of Oxford)

Die Gefahr von künstlicher Intelligenz lässt sich gezielt mit einem Training ohne missbräuchliche Daten bannen. Zu diesem Ergebnis kommen Wissenschaftler der University of Oxford, von EleutherAI und des UK AI Security Institute in ihrer neuen Studie. Statt nachträglich Filter einzubauen, trainieren sie ihre KI von Anfang an mit Daten, die in der Folge nicht für andere Zwecke missbraucht werden können. Ihre Forschungsergebnisse sind kürzlich in Open-Access-Archiv Arxiv erschienen.

Forscher plädieren für Internetzugang im Gefängnis

Pablo Romero: Kriminologe plädiert für Interntzugang im Gefängnis (Foto: uoc.edu)

Häftlinge mit Internetzugang könnten sich nach der Verbüssung ihrer Strafe besser in die Gesellschaft integrieren. Diese Erkenntnis haben Pablo Romero von der Universitat Oberta de Catalunya und seine Kollegen aus der Analyse statistischer Daten von 1.600 Häftlingen sowie Interviews mit zwölf Fachleuten aus dem Strafvollzug gewonnen.

US-Amerikaner wenig optimistisch in punkto KI

KI: Fluch oder Segen? (Foto: pixabay.com, geralt)

Der Optimismus, dass künstliche Intelligenz menschliche Jobs leichter machen wird, ist in der entwickelten Welt am geringsten. Davon sind laut einer kürzlich veröffentlichten Studie unter Leitung von Peter John Loewen von der Cornell University vor allem die USA, Kanada, Grossbritannien, Frankreich und Australien betroffen. Laut dem Experten zeigt sich ein Muster: In Entwicklungsländern ist die Haltung zu Folgen dieser Technologie in Hinblick auf die Zukunft und das Leben positiver. Die Ergebnisse basieren auf einer Umfrage mit rund 24.000 Personen aus 21 Ländern.

Wissenschaftlerinnen bei Online-Selbstvermarktung oft zurückhaltender als Männer

Forscherin: Selbstvermarktung liegt Wissenschaftlerinnen eher nicht (Foto: Ellie, pixabay.com)

Laut Daniel Romero von der University of Michigan bewerben Wissenschaftlerinnen etwa 28 Prozent seltener als Männer ihre wissenschaftlichen Arbeiten auf Social-Media-Plattformen wie X. "Da Zitate und Erwähnungen in den Medien eine Rolle bei Einstellungs- und Beförderungsentscheidungen spielen, sind Frauen durch ihre Zurückhaltung in diesem Bereich benachteiligt", konstatiert Expertin Misha Teplitskiy.

KI: Computer-Vision-Systeme sind manipulierbar

Tianfu Wu: Experte versteht sich darauf, KI zu überlisten (Foto: ncsu.edu)

Computer-Vision-Systeme auf der Basis von Künstlicher Intelligenz (KI) lassen sich so manipulieren, dass sie genau das sehen, was der Hacker will, oder umgekehrt, so ein Team um Tianfu Wu von der North Carolina State University. Sie können absichtlich dazu gebracht werden, Dinge, die Menschen mit Leichtigkeit erkennen, zu übersehen. So könnte beispielsweise jemand die Fähigkeit einer KI manipulieren, Verkehrszeichen, Fussgänger oder andere Autos zu erkennen, was zu verheerenden Folgen für autonome Fahrzeuge führen würde.

KI-Modelle verfälschen menschliche Gefühle

KI in Aktion: Gefühle werden oftmals nivelliert (Foto: pixabay.com, Chris_and_Ralph)

Fasst ein sogenanntes "Large Language Model" (LLM) wie ChatGPT zusammen, was Menschen zu einem Thema zu sagen haben, kann es hinsichtlich der beteiligten Gefühle zu einem falschen Eindruck kommen. Das ist auch dann der Fall, wenn LLMs die Fakten effizient zusammenfassen. Zu diesem Ergebnis kommt eine Studie der Warwick Business School.

Seiten

Forschung abonnieren