Chat-Bots: Kollektives Training als Schlüssel zur Intelligenz

https://avatars1.githubusercontent.com/u/6422482?v=3&s=400 AI Engines schießen gerade wie Pilze aus dem Boden und das gefällt mir als Fan von künstlich lernenden Systemen. Ich bin der Meinung, das es längst überfällig ist, dass sich im Bereich AI mehr tut. Und wie bei allen Frameworks und Technologien steigt die Verbreitung exponentiell mit dem Rückgang der Komplexität.

Ein schönes Beispiel hierfür ist JavaScript. Früher aus verschiedenen Gründen verpönt, ist es heute eine der trendigsten Sprachen überhaupt. Dies hat nicht zuletzt damit zu tun, dass zahlreiche Technologien dazu beigetragen haben, die Entwicklung in JavaScript zu vereinfachen und die Produktivität deutlich zu erhöhen. Programmierer können sich nun durch zahlreiche Frameworks vermehrt der eigentlichen Aufgabe widmen, ohne das Rad mit jeder Web-App von neuem erfinden zu müssen.

Meiner Meinung nach stehen wir beim Thema Künstliche Intelligenz (AI) gerade am Anfang einer ähnlichen Entwicklung. Waren wissensbasierte Systeme auf Basis trivialer Fuzzy-Logik früher primär etwas für Studenten und Universitäten mit denen man einfache Fälle lösen konnte, gibt es heute – nicht zuletzt dank dem BigData-Hype der letzten Jahre – immer mehr Frameworks welche die gesamte Palette der künstlichen Intelligenz mit verhältnismäßig wenig Aufwand abbilden.

Kollektives Training durch Entwickler

Google hat mit dem Schritt, im November 2015 die Machine Learning Platform Tensor Flow Open Source zu machen, hierzu ebenfalls beigetragen. Es entwickelt sich ein regelrechter Wettlauf zwischen den den Big 5 (Google, Microsoft, Facebook, Apple und Amazon), wer am schnellsten das intelligenteste System aufbauen kann. Dabei wurde erkannt, dass es nicht ausreicht ein solches Vorhaben auf eine lokale, abgeschottete Bibliothek mit einigen wenigen Schnittstellen zum Internet zu reduzieren. Nein, vielmehr braucht es hierfür eine Vernetzung an vielen Stellen. Ein selbstlernendes System, das nicht vernetzt ist, ist in etwa genauso wie ein Kind, das abgeschottet von der Außenwelt in einem Zimmer ohne Fenster aufwächst. Trotz tausender Entwickler, die bei Google & Co. arbeiten, ist es jedoch nicht trivial, eine solche Vernetzung so umzusetzen, da extrem kostspielig und aufwendig. Da gibt es Abermillionen von UseCases und Hundertausende von Schnittstellen, die implementiert werden müssen.

Ein logischer Schritt ist daher die folgende Idee: Mache alle Entwickler dieser Erde zu Trainern deines AI-Systems. Eine gigantische Herausforderung, die sich hier abzeichnet, aber sicherlich auch der effektivste Weg, um nach und nach eine vernetzte Intelligenz aufzubauen, die nahe an menschlicher Intelligenz sein wird und sie irgendwann vielleicht sogar übertrifft. War Deeplearning bis vor kurzem noch in Entwicklerkreisen der SearchEngines und Big Data Analysis angesiedelt, nimmt es nun immer mehr auch Einzug in die Welt von „Commodity-Apps“. Allen voran in Chat-Anwendungen in Form von intelligenten Chat-Bots.

Was diese Entwicklung noch beschleunigt ist die Vision vieler, dass Chat-Bots zukünftig die Mehrheit der Apps ersetzen wird. Eine gewagte, aber durchaus einleuchtende These. Geht doch der Trend hin zur „All-in-One-App“ in Form eines Messangers. Wenn ich nun nicht mehr extra eine App installieren muss, um die aktuellen Angebote des Italieners um die Ecke zu erhalten, sondern das einfach in Form der Frage „Welche Mittagsangebote hat heute Giovanni ums Eck?“ stellen kann, ist das viel einfacher und „menschlicher“. Hinzu kommt, dass die Entwicklung und der Betrieb eines Bots deutlich günstiger ist, als die einer App. Viele Gründe, die also dafür sprechen, dass Bots zukünftig eine immer wichtigere Rolle in unserem Leben spielen werden.

Die Bot-Plattformen

Je mehr Einsatzzwecke für Chat-Bots gefunden werden, umso intelligenter werden die dahinter liegenden AI-Systeme. Denn allen Bots – egal wo sie verwendet werden – ist gemeinsam, dass sie an einer zentralen Stelle mit anderen Diensten Verknüpft sind und an dieser zentralen Stelle „trainiert“ werden: den Bot-Plattformen. Diese lauten z.B. luis.ai von Microsoft oder wit.ai von Facebook.

Dass das US-Unternehmen Slack eine Bewertung von 3,8 Milliarden USD (!) in  kürzester Zeit erhalten hat, liegt nicht zuletzt daran, dass es Chat-Bots und die Integration in unterschiedlichste Systeme als einen zentralen Punkt seiner technologischen Strategie sieht. Eben genau den Weg geht, wie oben aufgezeigt. Im übrigen ist Google Ventures stark in Slack investiert und Microsoft wollte das Unternehmen Anfang 2016 sogar für 8 Mrd. USD übernehmen. Die Big 5 sind also dran.

Microsoft hat mit der Vorstellung seines Botframework auf der Build 2016 für großes Aufsehen gesorgt. Dabei handelt es sich um ein Framework, um einen selbstlernenden Bot entwickeln, publizieren und integrieren zu können. Das System ist ingesamt noch BETA. So wirkt es leider auch an vielen Stellen. Vor allem die Language Processing Service LUIS ist häufig down und Lernregeln sind noch sehr eingeschränkt. Allerdings sind die Ansätze gut und man kommt vor allem mit dem auf Node.js basierenden BotBuilder sehr schnell in einen produktiven Flow.

Ein anderer Anbieter ist wit.ai. Es wurde 2015 von Facebook gekauft und bietet – genau wie Microsofts Botframework – zahlreiche Tools an, um eine einfache Entwicklung eigener Bots zu ermöglichen. Mir persönlich gefällt wit.ai etwas besser als Microsofts Pendant.

Auch sehr interessant finde ich api.ai. Es hat das ansprechenste und meiner Meinung nach durchgängigste Konzept von diesen Dreien.

Alle drei Frameworks bieten Integrationen in Slack in Form sogenannter „Slackbots“ an. Slack selbst hat eine umfangreiche Sammlung für Entwickler aufgebaut, um solche Integrationen zu ermöglichen: https://beepboophq.com/. Aber auch Integrationen in andere Messanger-Dienste sind je nach Framework mehr oder weniger umfangreich vorhanden. Hierzu zählen z.B. Telegram und Facebook Messanger.

Ein weiterer Player, der eine Natural Language Processing Platform anbietet, ist Google. Allerdings habe ich das Gefühl, dass sie damit noch etwas zurückhaltend sind. Die Plattform wird als BETA bezeichnet und ist aktuell auch noch nicht groß beworben: https://cloud.google.com/natural-language/.

Von Google wird vermutlich noch ein „Big-Bang“ hierzu kommen. Zudem bin ich gespannt, was von Apple und Amazon hierzu noch zu sehen sein wird: Siri und Echo/Alexa reichen nicht aus, um hier mitzuhalten.  Und IBM mit den Watson Services wirkt wie immer etwas altbacken und komplex.

Fazit

Auch wenn aktuell der gesamte „Bot-Markt“ mit seinen Frameworks eher einem riesigen Chaos als der Zukunft unseres Internets ähnelt, ist insgesamt aber zu sehen, dass die rasante Weiterentwicklung von Chat-Bots und das kollektive Trainieren der Bots auf einer zentralen Plattform grade erst begonnen hat und das Rennen extrem spannend wird. Ich freue mich riesig drauf!

Folgende „NLP Dienste“ sind meiner Meinung nach nennenswert und einen Blick wert:

Weitere interessante Links zum Thema:

Schreibe einen Kommentar

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s