Künstliche Intelligenz auf dem Weg zum Mainstream?

München/Wien, Starnberg, 11. Jan. 2018 - Beobachtungen und Hinweise von Pure Storage rund um das derzeitige Trendthema "Künstliche Intelligenz" (KI)...

Zum Hintergrund: Es existiert derzeit kaum ein Bereich innerhalb von Wirtschaft und Gesellschaft, der gerade nicht die portentiellen Auswirkungen, Chancen und Risiken von künstlicher Intelligenz und maschinellem Lernen (ML) zu diskutieren scheint. Neben den eigentlichen Anwendungen bzw. Applikationen und den daraus entstehenden Möglichkeiten diskutieren Anbieter und Anwender auch die Anforderungen an die IT-Infrastruktur, um maschinelles Lernen und künstliche Intelligenz praxistauglich einzusetzen. Die Eindrücke vom letzten AI-Summit in San Francisco 2017 hat Güner Aksoy, Regional Sales Director Central Europe bei Pure Storage, nachfolgend in acht Punkten zusammengefasst:

1. Breites Interesse, KI gewinnt an Fahrt

"Künstliche Intelligenz umfasst praktisch alle Branchen: Viele „Global 2000“-Unternehmen aus sämtlichen Branchen - Einzelhandelsfirmen, Telekommunikationsunternehmen, Automobilhersteller, Gesundheitsdienstleister, Pharma- und Medizingeräteunternehmen, Fluggesellschaften und Versicherer – interessieren sich zunehmend für die Möglichkeiten des maschinellen Lernens und der künstlichen Intelligenz.

2. Deep Learning ist anders als herkömmliche, analytische KI

Statistische Regression, Korrelation, Scoring und traditionelle Formen der Analytik können als KI klassifiziert werden. Sie unterscheiden sich jedoch deutlich vom Megatrend der Nutzung von neuronalen Netzwerken für Deep Learning. Es gibt Unterschiede in den Software-Tools, der Infrastruktur und den Fähigkeiten der Datenwissenschaftler, die sie anwenden. Beide Formen werden parallel existieren, aber die größten radikalen Innovationen werden von neuronalen Netzen ausgehen. Die Zeit ist reif für diese Entwicklung, weil die richtigen technischen „Zutaten“ alle gleichzeitig zusammenkommen. Auf der Software-Seite gibt es neue Software-Algorithmen, auf der Infrastrukturseite ist es eine Kombination aus GPU-getriebener Rechenleistung, schnelleren Netzwerken und Flash-Speicher zu beobachten.

3. Es geht um Datenpipelines

Ein Großteil des anfänglichen Hypes um KI konzentriert sich auf das Training von neuronalen Netzwerken. Um die Nutzung von KI in der Praxis erfolgreich umzusetzen, ist es wichtig zu verstehen, dass die meiste harte Arbeit vor der Trainingsphase erfolgt.

Das Sammeln, Extrahieren und Transformieren von Daten sind die ersten Schritte in dieser neuen Datenpipeline. Es gibt zwar unzählige Tools aus jahrzehntelangem Data Warehousing, aber ist es nicht einfach, gute Ergebnisse zu liefern.

Bei vielen Deep-Learning-Projekten werden die  Herausforderungen im Zusammenhang mit der Datenmarkierung und dem Debugging des ursprünglichen Modells deutlich. Die Fähigkeit, diese beiden Phasen effektiv zu bewältigen, ist die größte Herausforderung – und ein Wettbewerbsvorteil für diejenigen, die es gut können. Sobald dies abgeschlossen ist, wird noch jede Menge GPU-, Netzwerk- und Speicher-Performance benötigt, um das Training selbst abzuschließen. Schneller, gemeinsam genutzter Speicher wird von großem Wert sein, ebenso wie die Möglichkeit, die Daten effizient durch diese neue Datenpipeline zu bewegen. Das manuelle Kopieren großer Datenmengen auf lokale SSDs für jede Stufe bietet keine Skalierbarkeit und behindert den schnellen Fortschritt.

4. Müll rein, Müll raus

Das Datenpipeline-Konzept ist wichtig, aber die Weisheit „Garbage in, Garbage out“ gilt immer noch. Wenn man schlechte Daten in ein neuronales Netzwerk einspeist, wird man nicht das erhoffte Ergebnis erzielen. Dies ist ein weiterer Grund, um Datenquellen richtig abzubilden und angemessene Anstrengungen bei der Erfassung, Extraktion und Transformation von Daten zu unternehmen.

5. Softwareentwicklung und Standard-Best-Practices

Ein Großteil der Anstrengungen um die neue Datenpipeline geht von Programmierern und Datenwissenschaftlern aus. Es gelten alle Standard-Best-Practices der Softwareentwicklung. Das Schema, mit dem Daten extrahiert und transformiert werden, ändert sich von Zeit zu Zeit, davon gibt es Versionen. Eine Kopie der Rohdaten wird beibehalten, um zu einem neuen Schema zurückzukehren und es erneut zu verarbeiten. Verarbeitete Daten werden erneut gespeichert, um zurückgehen und iterativ noch mehr Wert daraus zu ziehen. Alle Modelle werden in Git oder einem Quellcode-Kontrollsystem geprüft. Die Zusammenarbeit mit großen Softwareentwicklern gewährleistet effiziente Prozesse und macht gute Ergebnisse wahrscheinlicher.

6. Verarbeitung dort ausführen, wo die Daten gespeichert sind

Eine häufige Frage ist, ob ein neues KI-System in einem lokalen Rechenzentrum vor Ort oder in der Cloud erstellt werden sollte. Das Verschieben großer Datensätze ist kostspielig und komplex, sowohl hinsichtlich der Netzwerkbandbreite als auch hinsichtlich der Zeit und Komplexität. Wenn alle Daten aus einer Cloud-App generiert werden, sollte die KI auch dort ausgeführt werden. Wenn die Daten in einem bereits vorhandenen Rechenzentrum generiert oder zentralisiert werden, sollte das KI-Programm dort laufen.

7. Die einzige Konstante ist Veränderung, besonders für Software

Um eine erfolgreiche Deep-Learning-Pipeline zu implementieren, sind Mitarbeiter, Software und Infrastruktur erforderlich. Dabei wird die Softwareschicht die höchste Änderungsrate erfahren. Neue Softwarefunktionen werden immer wieder hinzukommen, so dass die Pipeline alle wahrscheinlich alle drei, sechs oder neun Monate verändert werden muss. Die Mitarbeiter werden kaum so oft auswechselt werden, und bei der Infrastruktur ist es ebenso unwahrscheinlich. Aufgrund dieser unterschiedlichen Veränderungsraten ist es äußerst wichtig, auf Menschen und Infrastrukturen zurückzugreifen, die sich an Veränderungen anpassen können.

8. Fachkräfte einstellen und Berater hinzuziehen

Angesichts der schnellen Innovationsrate in diesem Bereich weiß niemand alles. Daher ist es auch wichtig, sich mit kompetenten Beratern und Lieferanten zu umgeben und Kontakte innerhalb der Interessengruppe zu pflegen. Wer darüber nachdenkt, wie KI seinem Unternehmen helfen kann, benötigt auch den richtigen Hardwarepartner, der bei der Produktauswahl sowie der Implementierung hilft."


Link > https://www.purestorage.com