thumb

IBM kündigt wieder ihre traditionellen "5 in 5" an – eine Liste wissenschaftlicher Innovationen mit dem Potential, unser Leben in den nächsten fünf Jahren nachhaltig zu verändern. Sie basieren auf Ergebnissen von Marktanalysen, gesellschaftlichen Trends sowie Projekten aus den IBM Forschungszentren rund um den Globus. Diesmal steht die Sichtbarmachung des Unsichtbaren unserer Welt, vom Makro- bis zum Nanolevel.

"Die wissenschaftliche Gemeinde hat schon immer Apparate entwickelt, mit deren Hilfe wir die Welt mit völlig neuen Augen sehen. So macht das Mikroskop für uns winzige Dinge sichtbar, das Thermometer hilft uns bei der Messung von Temperaturen", so Dario Gil, Vice President of Science & Solutions bei IBM Research. "Auf Basis der Fortschritte im Bereich Künstliche Intelligenz und Nanotechnologie wollen wir nun eine neue Generation von Instrumenten entwickeln, die uns hilft, die komplexen, unsichtbaren Zusammenhänge in unserer heutigen Welt in den nächsten fünf Jahren besser zu verstehen."

Ein weltweites Team von IBM Wissenschaftlern arbeitet ständig daran, solche Erfindungen aus den Forschungszentren fit für die alltägliche Verwendung zu machen. Die folgenden fünf wissenschaftlichen Innovationen sollen in den nächsten fünf Jahren das Unsichtbare sichtbar machen.

Künstliche Intelligenz gibt Einblick in unsere mentale Gesundheit

Einer von fünf Erwachsenen in den USA leidet heute unter neurologischen oder mentalen Beeinträchtigungen wie Huntington, Alzheimer, Parkinson, Depressionen oder Psychosen - aber nur etwa die Hälfte der Betroffenen ist in Behandlung. Die Kosten für die Therapien derartiger Erkrankungen übersteigen weltweit diejenigen für Diabetes, Atemerkrankungen und Krebs: Allein in den USA entstehen Kosten von mehr als einer Billion US-Dollar jährlich.

Viele Abläufe im Gehirn sind trotz der Erfolge in der Forschung nach wie vor ein Geheimnis. Ein Schlüssel für ein besseres Verständnis der komplexen Zusammenhänge ist die Sprache. In den nächsten fünf Jahren sollen kognitive Systeme in der Lage sein, aus der Art und Weise, wie wir sprechen und formulieren, wichtige Rückschlüsse auf unsere mentale Verfassung und physische Verfassung zu ziehen.

IBM Experten kombinieren beispielsweise im Rahmen eines Projekts Abschriften und Tonaufnahmen aus Patientengesprächen mit Maschinellem Lernen, um so in den Unterlagen Sprachmuster aufzudecken, die zukünftig dabei helfen sollen, Psychosen, Schizophrenie, manisches Verhalten oder Depression präzise vorherzusagen. Momentan benötigt das kognitive System, das diese Daten verarbeitet nur noch 300 Wörter, um eine entsprechende Vorhersage zu treffen.

In Zukunft hoffen die Forscher, dass ähnliche Techniken auch für die oben genannten Krankheitsbilder oder auch posttraumatische Belastungsstörungen und sogar bei Autismus und Aufmerksamkeitsdefizitstörungen angewendet werden können. Dafür analysieren kognitive Systeme Sprache, Aussagen, Syntax und Intonation der Betroffenen. Kombiniert mit tragbaren Geräten und bildgebenden Verfahren wie der Elektroenzephalografie (EEG), eine Methode zur Messung der elektrischen Aktivität des Gehirns durch Aufzeichnung der Spannungsschwankungen an der Kopfoberfläche, entsteht ein umfassendes Bild der Person und unterstützt so Psychologen und Mediziner bei der Diagnose und der zukünftigen Behandlungen.

Was früher unsichtbare Anzeichen waren, sollen also in Zukunft erkennbare Indikatoren dafür werden, ob bei einem Patienten der Ausbruch der Krankheit oder die Verschlechterung seines Zustands unmittelbar bevorsteht, die Behandlung anschlägt oder angepasst werden muss. Werden zusätzlich mobile Geräte eingesetzt, können der Patient oder seine Angehörigen bereits zu Hause entsprechende Untersuchungen selbst machen und so die Arzttermine helfen vorzubereiten.

Neuartige Sehhilfen in Kombination mit künstlicher Intelligenz erweitern die Sehfähigkeiten

Das menschliche Auge kann mehr als 99,9 Prozent des elektromagnetischen Spektrums nicht sehen. In den letzten 100 Jahren hat die Wissenschaft jedoch entsprechende Geräte entwickelt, die mit Hilfe von Strahlen und ihrer Energie auf unterschiedlichen Wellenlängen Dinge sichtbar machen - Beispiele dafür sind das Radar oder Röntgenaufnahmen. Obwohl oft schon seit Jahrzehnten in Gebrauch, sind die Geräte nach wie vor nur von Spezialisten zu bedienen und teuer in Unterhalt und Anschaffung.

In fünf Jahren sollen es uns entsprechende Sehhilfen in Kombination mit KI erlauben, grössere Bandbreiten des elektromagnetischen Spektrums zu sehen, um wertvolle Einblicke in Dinge zu bekommen. Noch wichtiger: Diese Hilfen sollen tragbar, bezahlbar und überall verfügbar sein.

Ein momentan viel diskutiertes und getestetes Anwendungsszenario sind selbstfahrende Autos. Mit Hilfe von kognitiven Systemen können plötzlich auftretende Hindernisse oder sich verschlechternde Wetterbedingungen besser und schneller als heute möglich analysiert werden, um das Fahrzeug sicher an seinen Zielort zu navigieren. Einen Schritt weitergedacht: Was, wenn Technologien dieser Art zukünftig in unsere Smartphones verbaut werden und uns dabei helfen können, den Nährstoffgehalt eines Nahrungsmittels oder seine Haltbarkeit anzuzeigen? Oder helfen, die Echtheit eines Arzneimittels zu bestimmen? Schon heute arbeiten IBM Wissenschaftlicher an einer entsprechenden kompakten Technologieplattform, die unsere Sehfähigkeiten deutlich erweitern wird.

Mit Makroskopie globale Zusammenhänge besser verstehen

Die Zusammenhänge und die Komplexität unserer unmittelbaren Umgebung bleiben uns in den allermeisten Fällen verborgen. Mit dem Internet der Dinge und seiner bereits mehr als sechs Milliarden verbundenen Geräte wird sich das nachhaltig ändern: Kühlschränke und Glühbirnen, Drohnen, Kameras, Wetterstationen, Satelliten oder Teleskope liefern jeden Monat bereits Exabytes an zusätzlichen, bisher nur wenig genutzten Daten. Nach der Digitalisierung von Informationen, Transaktionen und sozialen Interaktionen sei es jetzt an der Zeit, die Abläufe der physischen Welt zu digitalisieren, so die IBM-Forscher.

In den nächsten fünf Jahren werden demnach Machine Learning-Algorithmen und Software dabei helfen, diese Informationen aus der physischen Welt zu organisieren und zu verstehen. Man nennt diesen Ansatz Makroskopie. Im Gegensatz zu einem Mikroskop oder einem Teleskop sind Systeme, die für diesen Ansatz entwickelt werden, darauf ausgerichtet, Wechselwirkungen von Dingen zu analysieren, die mit blossem Auge erkennbar, aber nicht einfach in einen Zusammenhang gebracht werden können.

Beispiel Landwirtschaft: Durch das Sammeln, Organisieren und Analysieren von Daten zu Klima, Bodenbeschaffenheit, Grundwasserspiegel und Anbaumethoden können zukünftig Bauern auf Basis entsprechender Daten ihr Saatgut auswählen, den richtigen Standort für Felder bestimmen und den Ertrag optimieren – ohne dabei beispielsweise kostbare Grundwasserreserven unnötig auszubeuten.

2012 begann IBM Research ein Projekt mit dem US-amerikanischen Winzer Gallo, in dessen Verlauf Bewässerungsmethoden, Bodenbeschaffenheit, Wetterdaten von Satelliten und andere Details ausgewertet wurden, um die beste Bewässerung für optimale Ausbeute und Qualität für dessen Böden sicherzustellen. In der Zukunft sollen solche Makroskopie-Ansätze überall eingesetzt werden können – beispielsweide in der Astronomie, um dort anfallende Daten über Asteroiden auszuwerten, ihre Materialzusammensetzungen exakter zu ermitteln und Kollisionskurse vorherzusagen.

Chips werden zu medizinischen Laboren und finden Auslöser für Krankheiten auf der Nanoebene

Früherkennung von Krankheiten ist entscheidend für deren Behandlung. Allerdings gibt es auch Krankheiten wie das oben erwähnte Parkinson-Syndrom oder Krebs, die nur schwer frühzeitig zu diagnostizieren sind. Eine Möglichkeit der Früherkennung sind Biopartikel in Körperflüssigkeiten wie Speichel, Tränen, Blut, Urin oder Schweiss. Da diese Partikel aber oft 1000-mal kleiner sind als der Durchmesser eines menschlichen Haars, sind sie extrem schwer nachzuweisen.

In den nächsten fünf Jahren sollen Chips zu winzigen medizinischen Laboren mutieren, die unsere Körperflüssigkeiten scannen und uns rechtzeitig wissen lassen, ob es Zeit für einen Arzttermin ist. Das Ziel der Forschungen ist es, die notwendigen Untersuchungen, für die bisher eine voll ausgestattete Laborumgebung gebraucht wurde, auf einem einzigen Chip zu bündeln. Es ermöglicht den Nutzern in Zukunft, schnell und regelmässig Biomarker auszulesen und diese Informationen bequem von zu Hause in die Cloud zu geben. Dort können sie mit weiteren Daten von beispielsweise Schlafmonitoren oder Smart Watches verknüpft werden und von einem kognitiven System analysiert werden. Die Kombination aus verschiedenen Datensätzen ergibt einen umfassenden Einblick in den Gesundheitszustand und kann problematische Indikatoren frühzeitig identifizieren.

Wissenschaftler von IBM Research arbeiten bereits an einer „Lab-on-a-chip“-Nanotechnologie, die Biopartikel mit einem Durchmesser von lediglich 20 Nanometern und damit in der Größenordnung unserer DNA, von Viren oder Exosomen trennen und isolieren kann.

Intelligente Sensoren entdecken Umweltverschmutzung in Echtzeit

Die meisten Schadstoffe sind für das menschliche Auge unsichtbar – bis ihre Auswirkungen nicht mehr zu ignorieren sind. Methan beispielsweise ist eine Komponente von Erdgas, einer eigentlich sauberen Energiequelle. Wenn Methan allerdings in die Luft gelangt, bevor es verbrannt wird, trägt es neben Kohlendioxid entscheidend zur Erderwärmung bei.

In den Vereinigten Staaten entsteht Methan vor allem bei Verarbeitungsvorgängen in der Öl- und Gasindustrie. Die amerikanische Umweltbehörde EPA schätzt, dass allein aus natürlichen Methanquellen 2014 mehr als neun Millionen Tonnen Methan ausgetreten sind. Das entspricht der Menge von Treibhausgasen, die in den letzten 100 Jahren von den der amerikanischen Eisen- und Stahl-, Zement- und Aluminium-Branchen zusammengenommen produziert wurden.

In fünf Jahren sollen neue, preiswerte Sensortechnologien verfügbar sein, die an den Gasquellen, Tanks und Pipelines angebracht werden und dafür sorgen, dass die Industrie bisher schwer zu findende Lecks in Echtzeit entdeckt werden, so IBM. Netzwerke aus Sensoren des Internets der Dinge werden demnach in der Cloud miteinander verbunden sein und die weit verstreuten Quellen und die Förder-Infrastruktur überwachen, um innerhalb von Minuten - statt wie bisher nach Wochen - ein Leck zu entdecken. Sie helfen damit, Verschmutzungen und die Wahrscheinlichkeit von Katastrophen zu reduzieren.

IBM Forscher arbeiten bereits mit Gasunternehmen wie Southwestern Energy aus Texas zusammen, um im Rahmen des Arpa-E Methane Observation Networks with Innovative Technology to Obtain Reductions (Monitor) program ein entsprechendes, intelligentes Methanüberwachungssystem zu entwickeln.

Die Forscher nutzen dazu Silicon Photonics - eine Technologie, bei der Daten zwischen Computerchips durch Licht übertragen werden. Der Vorteil: Licht kann in kürzerer Zeit weitaus mehr Daten übertragen als elektrische Leiter. Diese Chips können in Netzwerksensoren direkt vor Ort, an anderen Stellen der Überwachungskette oder auch in Drohnen integriert werden. So kann aus Echtzeitdaten ein komplexes Umweltmodell entwickelt werden, das den Ursprung und die Menge der Schadstoffe in dem Moment bestimmt, in dem sie auftreten.

24046-24046ibmsmartesensorenstellenverschmutzungeninlichtgeschwindigkeitfest.jpg
Smarte Sensoren stellen Verschmutzungen in Lichtgeschwindigkeit fest (Bild: IBM Research)