Posted in Wissen

Das Jahr 2016 – Was bisher geschah

Das Jahr 2016 – Was bisher geschah Posted on 5. August 2016Leave a comment

Hier möchte ich einen kleines Round-Up darüber geben, was seit dem 01. Januar 2016 bis heut in der Künstlichen Intelligenz passiert ist, dass uns allen in Erinnerung bleiben wird. Dabei waren einige Highlights und Durchbrüche, die uns schon demnächst wieder beschäftigen werden oder Standards für die Zukunft setzen werden.

Sehr viel ist in den Bereichen Image Processing und Chat-Bots passiert. Aber lest selbst.

[Januar] Marvin Minsky ist tot

Das Jahr begann gleich mal mit einer sehr unschönen Nachricht. Marvin Minsky ist im Alter von 88 Jahren 240px-Marvin_Minsky_at_OLPCbin Boston gestorben. Er war einer der größten Denker der Künstlichen Intelligenz und Mitbegründer vieler Verfahren. In Erinnerung bleibt unter anderem auch sein Buch Society of Mind – Mentopolis, in dem er eine Welt beschreibt, die aus unintelligenten Agenten besteht und daraus ein intelligentes System bildet.

[Januar] Treffen sich zwei Roboter, sagt der eine…

Hier wurden 2 der besten Chat-Bots in ein Gespräch verwickelt. Das erste Halbjahr 2016 drehte sich generell sehr viel um Chat-Bots – sei es auf Facebook oder anderen Plattformen. In diesem Artikel wurden die beiden Bots Rose und Mitsuku mit einander in einen virtuellen Raum gesperrt und mussten miteinander kommunizieren. Der Artikel hier ist nur ein Beispiel für einen sehr brisanten Trend im Jahr 2016.

[Februar] Volkswagen CIO kommt in der Zukunft an

Der Titel klingt natürlich sehr reißerisch – auch wenn ich aus persönlicher Erfahrung weiß, wie es um einige deutsche Automobilkonzerne in Deutschland steht (und das ist schon sehr gut ;)). Allerdings ist das die Sichtweise vieler Deutscher, wenn es um VW, BMW, Mercedes-Benz und weitere Marken geht. Der Volkswagen CIO sprach jedenfalls ein bisschen über die Zukunft mit Künstlicher Intelligenz. Im Februar standen autonom fahrende Autos generell stark im Mittelpunkt.

[Februar] Der visuelle Turing-Test

Menschen sollen entscheiden, welches Bild von einer Person und welches von einer Maschine gemalt wurde. deepart_exampleDahinter steckt der Algorithmus von Tübinger Forschern (deepart). Hier kann man selbst testen, ob man herausfindet, wer der Künstler des Bildes ist.

[März] Tay wird von Twitter Nutzern erzogen

Microsoft launchte Tay! Es sollte eine KI werden, die durch Kommunikation lernen sollte, wie die „jungen“ Menschen heutzutage kommunizieren. Letztendlich hat Tay aber rassistische Kommentare und schimpfen gelernt. Spannend – Microsoft wurde anfangs verantwortlich gemacht, allerdings kann Tay als ein Spiegel der Gesellschaft gesehen werden und gibt das Nutzerverhalten bei Neuheiten ganz gut wieder. Misuse first!

[März] SXSW stellt Human-assisted AI als Next Big Thing vor

… Und genau dieses Potenzial steckt in der sogenannten Human-assisted AI, also alle Produkte die dem Menschen mit KI-Unterstützung helfend zur Seite stehen. Die Anwendungsbereiche sind enorm und die Early Adopters oft nicht sehr anspruchsvoll. In nahezu allen Bereichen des Lebens können solche Anwendungen demnächst entstehen.

[April] openAI stellt openAI Gym vor

Das Non-Profit-Unternehmen openAI hat openAI Gym vorgestellt. Damit veröffentlichen sie die ersten Ergebnisse ihrer Forschung an Reinforcement Learning Algorithmen. Die Bibliothek ermöglicht es Nutzern, verschiedene Algorithmen zu testen und bietet ein Framework für die Programmierung von intelligenten Spiele-Bots.

[April] KI beschreibt Fotos für blinde Menschen

Facebook hat eine KI vorgestellt, die blinden Menschen ein Bild beschreibt. Dem vorausgegangen sind viele Apple_logo_black.svgEntwicklungen im Bereich Deep Learning und der semantischen Bildanalyse. Schon in den letzten Jahren nahm der Trend zu, Bilder semantisch zu beschreiben. Nun gipfelt dieser Trend in der Entwicklung solcher intelligenter Tools. Die KI ist besonders interessant für Dienste wie Instagram, welche nur aus Bildern bestehen. Damit wird Instagram auch für blinde (oder Menschen mit Sehschwäche) nutzbar.

[Mai] Google im Spot-Light

Auf der Google I/O hat Google mal wieder einen guten Progress gezeigt. Unter anderem präsentierten sie die TPU (Tensor Processing Unit). Mit diesem, auf die Anwendungen des Machine Learning optimierten, Chips zeigt Google zudem, wie schnell und agil man Hardware entwickeln kann. Außerdem stellte Google ihr neustes Smart-Home Produkt vor: Google Home. Davon werden wir in diesem und dem nächsten Jahr noch einiges hören.

[Juni] ALPHA schlägt Kampfpiloten

Die kleine smarte KI ALPHA (die auf einem RaspberryPI läuft) schlägt zum ersten Mal einen erfahrenden Kampfpiloten und lässt ihn im Simulator abstürzen. Entwickelt wurde das System von einem Absolventen der University of Cincinnati.

[Juni]  Der Aufsatz über den Panik-Knopf

Zwei Wissenschaftler haben sich in einem Aufsatz ihre Gedanken über einen Panik-Knopf bei Robotern gemacht. Laurent Orseau (Google Deepmind) und Stuart Armstrong (University of Oxford) haben dabei Regeln aufgestellt, unter welchen Konditionen der Knopf zum Einsatz kommt. Außerdem haben sie einige bekannte Verfahren aufgegriffen und gezeigt, wie man diesen Panik-Knopf realisieren kann.

 

Buchempfehlung zum Thema

BESTSELLER: Smarte Maschinen: Wie Künstliche Intelligenz unser Leben verändert 




Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

WordPress spam blockiert CleanTalk.