Chatbots, Gesichtserkennung und selbstfahrende Autos: Künstliche Intelligenz ist hier
Wir alle wissen, was künstliche Intelligenz (KI) ist, aber viele von uns sind sich gar nicht bewusst, wie real diese Technologie heute ist.
Chatbots, Gesichtserkennung und selbstfahrende Autos: Künstliche Intelligenz ist hier
Wir alle wissen, was künstliche Intelligenz (KI) ist, aber viele von uns sind sich gar nicht bewusst, wie real diese Technologie heute ist.

Wir alle wissen, was Künstliche Intelligenz (KI) ist, aber vielen von uns ist völlig unbekannt, wie real die Technologie heute ist.
Die Darstellung dessen, was KI erreichen kann und erreichen wird, stand im Mittelpunkt vieler der Hauptredner auf Microsofts Future Decoded-Veranstaltung in London im vergangenen Monat. In diesem Blog werde ich die Erkenntnisse eines der Redner in diesem Artikel, Joseph Sirosh, Corporate Vice President, Data Group bei Microsoft, vorstellen.
Sirosh wollte die verschiedenen Arten des Anwendungsdesigns und -verhaltens aufschlüsseln, in die Intelligenz eingebettet sein kann. Durch die Verlagerung der Datenanalyse und Intelligenz von der Anwendung in die Datenbank - wie im Fall der Intelligence DB - ist es möglich, unglaublich schnelle Manipulationen und Berechnungen auf der Grundlage von Echtzeitdaten durchzuführen.
Sirosh stellte uns Microsoft SQL Server 2016 vor: eine intelligente Datenbank mit im Kern integrierter R-Funktionalität.
Leser, die nach den Neuerungen in SQL Server 2016 suchen, sollten hier beginnen, während Leser, die sich mit den R-Diensten für SQL Server 2016 die Hände schmutzig machen möchten, sich hier orientieren sollten. Sirosh hat auch ein sehr tiefgehendes (und kostenloses) eBook über die Entwicklung intelligenter Anwendungen mit SQL Server geschrieben, das hier zu finden ist.
Sirosh ging dann auf den Intelligent Lake und führte uns in die kognitiven APIs von Microsoft ein und zeigte uns, wie intelligente Funktionalität mit nur wenigen Zeilen Code zu bestehenden Anwendungen hinzugefügt werden kann.
Eine sehr aussagekräftige Demonstration zeigte, wie eine Anwendung - in Echtzeit - mit einem YouTube-Video gefüttert werden kann und die Gesichts-API ein Gesicht erkennt, dessen Geschlecht, Alter und emotionale Attribute protokolliert und dann versucht, das Gesicht unter Verwendung einer lokalen Bilddatenbank als Referenz zu identifizieren.
The most interesting part of the demonstration was that the entire functionality could be added in a few lines of code thanks to the API. Uber is currently using the functionality as a security measure to check a driver’s identity before starting a shift to ensure the safety of both the driver and passenger.
The final focus of Sirosh’s talk was Deep Intelligence: applications and machines that have intelligence built into their core. Joseph spoke of self-driving and automated cars that could recognise hazards and surroundings and react just as skillfully, or more skilfully, than a human can. Modern cars are increasingly becoming aware of their surroundings and can even distinguish between different hazards such as humans, animals or inanimate objects like a parked car or kerb and act accordingly.
Tore Lie von eSmart Systems in Norwegen ging mit dieser Idee noch einen Schritt weiter. Er kam auf die Bühne, um ihr Drohnenprojekt vorzustellen und zu zeigen, wie die kognitiven APIs von Microsoft und die Azure-Web-Infrastruktur mit Drohnen kombiniert wurden, um Inspektionen der Stromleitungsinfrastruktur im ländlichen Norwegen viel sicherer zu machen.
Die Drohnen können über Stromleitungen fliegen und dabei Hunderte von Bildern der Infrastruktur und anderer Geräte aufnehmen, die dann unter Verwendung sowohl historischer Daten als auch simulierter Daten die Bilder akkumulieren und unglaublich schnell verarbeiten können, um eine Analyse darüber zu liefern, ob die Geräte defekt sind oder ob das Bild von Menschen überprüft werden muss. Das von den Drohnen verwendete Modell lernt ständig, wenn neue Bilder hinzugefügt werden, und dank des intelligenten Designs verbessert die Software ihre Fähigkeit, Geräte kontinuierlich zu erkennen und zu analysieren.
Es ist schwer, diesen Projekten in so wenigen Worten gerecht zu werden, und obwohl diese Technologien und Konzepte ziemlich auf die Erweiterung von Geschäftsanwendungen ausgerichtet zu sein scheinen, ging es bei den Kernaussagen von Future Decoded um viel mehr, und ich möchte Sie ermutigen, sich in die unten stehenden Links zu vertiefen, um mehr darüber zu erfahren, wie vielfältig die Vorträge waren. Künstliche Intelligenz, maschinelles Lernen und Augmented Reality werden ein Hauptschwerpunkt von Microsoft sein, und es ist spannend, darüber nachzudenken, was die Entwicklergemeinde mit all dem aufbauen kann.
Project Malmo – How can Minecraft help with Machine Learning?
Using micro vibrations to predict behaviour
Messenger bots, Siri, Alexa and the rest. How chat bots are evolving
Microsoft HoloLens – Augmenting Reality. Science fiction in the real world
News & Insights






