IoT-Basics

Künstliche Intelligenz: Projekte, Use Cases, Trends

| Redakteur: Jürgen Schreier

Selbstfahrende Autos, genauere medizinische Diagnosen oder Unterstützung bei der Aufklärung von Verbrechen: Künstliche Intelligenz wird schon heute in vielen Lebensbereichen eingesetzt und gilt als Schlüsseltechnologie der kommenden Jahre.
Selbstfahrende Autos, genauere medizinische Diagnosen oder Unterstützung bei der Aufklärung von Verbrechen: Künstliche Intelligenz wird schon heute in vielen Lebensbereichen eingesetzt und gilt als Schlüsseltechnologie der kommenden Jahre. (Bild: Pixabay / CC0)

Neben Blockchain und Bitcoin der momentan grösste Hype in der Digitalszene heisst Künstliche Intelligenz (KI). Die wirtschaftliche Bedeutung der Technologie ist enorm. Der Artikel gibt einen Überblick über aktuelle Projekte und Use Cases. Ausserdem stellen wir einige KI-Forschungsvorhaben und -felder vor.

Technothrill und jede Menge Action - das verspricht wie schon seine Vorgänger auch der neueste Pageturner von Erfolgsautor Frank Schätzung. Das Thema seines Romans "Die Tyrannei des Schmetterlings": Die Handlung ist schnell erzählt. Ein künstliches Superhirn namens A.R.E.S. (Artificial Reserach & Exploration System) entwickelt einen eigenen Willen und mag - anders als von seinem Schöpfer, dem IT-Nerd und Philantropen Elmar Nordvisk intendiert - nicht mehr die Probleme der Menschheit lösen, sondern tut genau das Gegenteil und beginnt, roboterisierte Killerinsekten in Kriegsgebiete zu verkaufen.

Auch wenn es dem 600-Seiten-Wälzer gelegentlich an Stringenz und Logik gebricht: Für reichlich Spannung ist gesorgt. Auch sonst ist Schätzing, Experte für flotte Thriller mit Okö- oder Technologiebackground, voll am Puls der Zeit. Denn kaum ein Thema - sieht man einmal von Blockchain und Bitcoin ab - wird derzeit so gehypt wie Künstliche Intelligenz.

Politik erkennt wirtschaftliche Bedeutung der KI

Sogar deutsche Spitzenpolitiker hat dieser Hype erfasst. "China hat das Ziel ausgegeben, 2030 der führende globale Anbieter für Künstliche Intelligenz zu sein. Darauf kann China hinarbeiten. Wir sind faire Partner. Aber ich sage: Auch wir wollen im Wettbewerb bestehen und vorn mit dabei sein", verkündete Bundeskanzlerin Merkel in ihrer Eröffnungsrede anlässlich Hannover Messe 2018. "Deshalb wird die Bundesregierung hinsichtlich der Künstlichen Intelligenz eine Bündelung aller Kapazitäten vornehmen – an den Universitäten, im Deutschen Forschungszentrum für Künstliche Intelligenz, in der Fraunhofer-Gesellschaft – und die Vernetzung mit der Wirtschaft durch Exzellenz-Cluster und durch geeignete Fördermethoden noch besser strukturieren." Und das nach Expertenmeinung auch dringend notwendig, schliesslich sieht sich Deutschland in Sachen Künstlicher Intelligenz auf globaler Ebene mit potenten Wettbewerbern konfrontiert.

In der breiten Bevölkerung ist das Thema KI überraschenderweise überwiegend positiv besetzt. Schliesslich haben viele Bundesbürger mit dieser Technologie bereits Bekanntschaft geschlossen - ob bei der Suche nach der besten Reiseroute, beim Onlineshopping, einer Online-Übersetzung oder beim Steuern des smarten Heims mit intelligenten Sprachassistenten wir Alexa oder Siri. All diese Dienste basieren auf KI-Methoden- und -Algorithmen, sind weit verbreitet und werden von den meisten Menschen als hilfreich empfunden.

Bundesbürger empfinden KI als Chance

Wie weit das Vertrauen in die KI geht, zeigt eine repräsentativen Umfrage des Digitalverbandes Bitkom. Danach möchte die Mehrheit der Bundesbürger in diversen Lebensfragen lieber Künstliche Intelligenz entscheiden lassen als einen Menschen aus Fleisch und Blut - etwa bei der Beantragung eines Bankkredits. Und auch nach einem Verkehrsunfall würden sich viele Zeitgenossen lieber einer Künstlichen Intelligenz stellen als einem menschlichen Richter.

Grundsätzlich - so das Resümee des Digitalverbandes Bitkom - sehen die Bundesbürger in allen Lebensbereichen grosse Chancen beim Einsatz von Künstlicher Intelligenz. Acht von zehn sind überzeugt, dass Künstliche Intelligenz die Verkehrssteuerung verbessern und so Staus reduzieren kann. Fast ebenso viele (81 Prozent) glauben, dass dank KI in der Industrie körperlich belastende Tätigkeiten auf Maschinen übertragen werden können und jeweils zwei Drittel sagen, dass Verwaltungstätigkeiten durch Künstliche Intelligenz beschleunigt würden und der Kundenservice von Unternehmen dank KI Anfragen zuverlässiger bearbeiten könne.

Dabei sieht die Mehrheit Arbeitnehmer in Deutschland (konkret 62 Prozent) laut Automatica Trend Index 2018 KI keineswegs als Jobkiller, sondern eher als Technologie, mit der Maschinen zu besseren Assistenten am (weiterhin bestehenden) Arbeitsplatz werden. Die sozialen Fähigkeiten von Menschen würden die digitalen Helfer nach Ansicht von 78 Prozent der befragten Arbeitnehmer nicht ersetzen können.

„Die jüngsten Entwicklungen in der KI dürften dazu führen, dass Roboter immer bessere Assistenten am Arbeitsplatz werden“, resümiert Junji Tsuda, Präsident des Weltroboterverbands International Federation of Robotics. „Maschinen werden künftig nicht nur Aufträge ausführen, auf die sie programmiert sind. Sie werden in der Lage sein, die Fragen der menschlichen Kollegen zu verstehen, zu beantworten und auf Gesten zu reagieren. Im nächsten Schritt gilt es, die Arbeitsschritte eines Menschen zu antizipieren, um Hindernisse schon im Vorfeld zu erkennen und aus dem Weg zu räumen.“

Angst vor der Künstlichen Intelligenz scheint aber nur eine Minderheit zu haben: Ganze vier Prozent der vom Bitkom befragten Personen wünschen sich, dass die Politik den Einsatz von Künstlicher Intelligenz verbietet. Knapp sechs von zehn Bundesbürgern (57 Prozent) sind hingegen der Meinung, dass die Politik den Ängsten der Bevölkerung beim Thema Künstliche Intelligenz entgegenwirken müsse. „Was wir dringend brauchen ist eine bundesweite Strategie zu Entwicklung und Einsatz von Künstlicher Intelligenz. Wenn wir die nächsten Jahre darauf verwenden, alleine das Für und Wider der Technologie zu debattieren, werden wir international abgehängt“, mahnt Bitkom-Präsident Berg.

Künstliche Intelligenz: Definition

Die definitorische Abgrenzung der verschiedenen Spielarten von Künstlicher Intelligenz ist nicht ganz einfach. Je nach Herkunft, Perspektive und Verfahren lassen sich Systeme den unterschiedlichen Begriffen Machine Learning, Deep Learning oder Cognitive Computing zuordnen. Eine vereinfachende Abgrenzung kann anhand der Dimensionen „Clarity of Purpose“ (Klarheit / Präzision des Einsatzzwecks bzw. der Aufgabe) sowie „Degree of Autonomy“ (Grad der Autonomie) erfolgen.

So ist derzeit ein Grossteil der Systeme, die auf Machine Learning basieren, auf eine spezielle Aufgabe hin entwickelt, trainiert und optimiert. Dies kann beispielsweise das Erkennen fehlerhafter Teile oder Produkte im Rahmen der betrieblichen Qualitätskontrolle sein. Solche Systeme haben einen klar umrissenen Einsatzzweck und verfügen über wenig oder gar keine Autonomie.

Deep Learning-basierte Systeme weisen darüber hinaus die Möglichkeit des eigenständigen und tiefen Lernens auf. Sie erledigen Aufgabenstellungen, die für Maschinen lange Zeit eine grosse Hürde darstellten. Dazu gehören das Erkennen von Objekten auf Bildern oder die Spracherkennung bei der Interaktion mit dem Smartphone. Deep Learning basiert auf neuronalen Netzen. Simulierte Neuronen werden in vielen Schichten hintereinander bzw. übereinander modelliert und angeordnet. Jede Ebene des Netzwerks erfüllt eine kleine Aufgabe. Die Extraktion von Merkmalen findet innerhalb der einzelnen Ebenen eigenständig statt. Die Ausgabe der einzelnen Schichten dient dann wiederum als Eingabe für die nächste Ebene. Im Zusammenspiel mit einer grossen Zahl hochwertiger Trainingsdaten erlernt das Netzwerk dann, bestimmte Aufgaben zu erledigen.

Künstliche neuronale Netze bzw. Deep-Learning basierte Systeme erzielten vor allem im medizinischen Bereich erste Erfolge. So kann Diagnose von Krebszellen in Bildern durch die Maschinen wesentlich schneller und effizienter durchgeführt werden als "manuell". Jedoch bleibt bei diesen Verfahren der Künstlichen Intelligenz dem Menschen der Einblick in die Schichten des Netzwerks verborgen. Die Entscheidungsfindung erfolgt also allein durch die trainierten Maschinen.

Deep Learning-basierte Systeme weisen also schon einen deutlich höheren Grad an Autonomie auf und bieten vielfältige Anwendungsmöglichkeiten, da die neuronalen Netzwerke der nächsten Generation nach der Initiierung selbstständig lernen und die Entscheidungsfindung von aussen aktuell nur noch schwer nachvollziehbar ist.

Von Cognitive Computing lässt sich immer dann sprechen, wenn es sich um Systeme handelt, die als Assistent oder anstelle von Menschen bestimmte Aufgaben übernehmen oder Entscheidungen treffen. Denkbar wäre dies beim Schadenfall-Management einer Versicherung, an der Service-Hotline oder der Diagnostik im Krankenhaus. Kognitive Systeme übernehmen bestimmte „menschliche“ Eigenschaften und sind in der Lage, mit Ambiguität und Unschärfe umzugehen.

Quelle: Björn Böttcher, Daniel Klemm, Dr. Carlo Velten: Machine Learning im Unternehmenseinsatz - Ergebnisse einer empirischen Studie" in Kooperation mit The unbelievable Machine Company (*um) und Hewlett Packard Enterprise, Januar 2017

KI muss "menschen-dienlich" sein

KI voran zu bringen, hat sich auch der neu gegründete KI-Bundesverband auf die Fahnen geschrieben. Das wurde am Rande der Handelsblatt-Tagung "Künstliche Intelligenz" am 15. und 16. März in München bekannt. Wie Verbandspräsident Jörg Bienert, Founder und Vorstand des Kölner Deep-Learning-Unternehmens aiso-lab, im Rahmen der Pressekonferenz erläuterte, soll die Verbandsarbeit dazu beitragen, dass Politik und Gesellschaft "nüchtern und präzise" mit der KI-Technologie umgehen. "KI wird entweder als grosse Heilsbringerin oder als grosse Gefahr gesehen. Gegner und Freunde erzeugen einen falschen Hype", so Bienert. Um der Sache den nötigen politischen Rückenwind zu verleihen, verfügt der frisch gebackene KI-Verband über einen politischen Beirat, dem Thomas Jarzombek (CDU), Jens Zimmermann (SPD) Manuel Höferlin (Die Grünen) und Petra Sitte (Die Linke) angehören. Vorsitzender des politischen Beirats ist Marcus Ewald vom Jungen Wirtschaftsrat.

CDU-Politiker Jarzombek - er gab sein Statement bei der Handelsblatt-Tagung per Videoschalte ab - ist überzeugt: "KI wird die Gesellschaft verändern, und wir wollen dazu beitragen, dass ihr Nutzen transparent und förderlich für diese Gesellschaft realisiert wird." Wie Ewald betonte, könne sich das Potenzial der Künstlichen Intelligenz jedoch nur dann entfalten, wenn es "menschen-zentriert" und "menschen-dienlich" ist.

Um einen, wie es heisst, "verantwortlichen Einsatz von Künstlicher Intelligenz" zu fördern, hat der Bitkom-Verband einen Empfehlungskatalog veröffentlicht. Dieser zeigt Wege auf, wie die unterstützte Entscheidungsfindung durch Algorithmen, Maschinelles Lernen und KI zum Wohl der Gesellschaft und Nutzen der Volkswirtschaft eingesetzt werden kann. Mitgewirkt haben daran Vertreter der Wissenschaft sowie Unternehmen, die Algorithmen für Maschinelles Lernen und KI erfolgreich einsetzen.

Auch beim KI-Bundesverband sollen in Arbeitsgruppen konkrete Handlungsschritte ausgearbeitet werden, wobei als "Mitwirkende", so Verbandschef Bienert, auch Unternehmen eingeladen seien, deren Geschäftszweck sich nicht primär am Thema Künstliche Intelligenz orientiere.

VDI-Umfrage: USA und China an der KI-Weltspitze

Aber wie ist Deutschland in Sachen KI aktuell aufgestellt? Just diese Frage trieb auch den VDI, den grössten deutschen Ingenieurverband um, sodass er eine Umfrage unter 900 Mitgliedern durchführte. Die Ergebnisse wurden auf der Hannover Messe präsentiert. Deutschlands Positionierung in der weltweiten KI-Szene ist nicht schlecht, aber auch nicht wirklich "super". Top-KI-Nationen sind nach Meinung von 80 Prozent der Befragten die USA und China (55 Prozent), das im Rahmen seines Plans China 2025 mächtig voran prescht. Deutschland landet mit einem Votum von 30,4 Prozent auf dem dritten Platz.

Dabei sind die USA, wie Dr. Kurt Bettenhausen, Vorsitzender des interdisziplinären VDI-Gremiums Digitale Transformation, in Hannover ausführte, spitze in der Grundlagenforschung und führend beim Einsatz von KI zur Auswertung unstrukturierter Konsumentendaten. Allerdings unterscheiden sich laut Bettenhausen die Datenschutzbestimmungen in den Vereinigten Staaten signifikant von denen in Deutschland und Europa und ermöglichen so einen flächendeckenden Einsatz von KI. Der seit Jahren in den USA tätige Siemens-Manager sieht darin "Chance und Risiko zugleich."

Die Voraussetzungen in China sind laut VDI-Studie ebenfalls völlig anders als in Deutschland:

  • In China hat man es mit zentralisierten Strukturen zu tun. Es wird im Rahmen es Wirtschaftsplans sehr viel investiert, wobei als nationales Ziel ausgerufen wurde, weltweit bis 2030 weltweit die Nr. 1 in der KI werden.
  • China hat im Rahmen der Digitalen Transformation ein atemberaubendes Tempo hingelegt und überspringt so manche Entwicklung, die man Europa absolviert hat.
  • China selbst hat einen riesigen Markt und damit einen Zugang zu gewaltigen Datenmengen. Das macht verglichen mit der westlichen Welt vieles „einfacher“. Hinzu kommt eine grosse Zahl von Menschen, die sich mit IT und damit auch mit Künstlicher Intelligenz beschäftigen.

Ohne vernetzte Produktion kein sinnvoller KI-Einsatz

Trotzdem sieht VDI-Experte Bettenhausen Deutschland in der KI-Grundlagenforschung keineswegs abgehängt. In Grundsatzfragen sei man sogar sehr gut aufgestellt, ist er überzeugt. Jedoch verhindere die immer noch unzureichende Digitalisierung in der Produktion den Einsatz von KI-Technologien in grösserem Umfang. Der Aussage „Uns fehlen die Voraussetzungen einer digital vernetzten Produktion (Industrie 4.0), um KI-Technologien effizient zu nutzen.“ stimmten rund zwei Drittel der befragten VDI-Mitglieder zu bzw. "eher" zu. Nur 13,9 Prozent mochten diese Aussage nicht bejahen und meinten, ihr Unternehmen sei ausreichend vorbereitet auf die vierte industrielle Revolution.

"In dieser Ausprägung haben wir nicht damit gerechnet. Dies zeigt, dass Industrie 4.0 noch nicht überall ausreichend eingezogen bzw. umgesetzt ist", kommentierte Bettenhausen bei der Pressekonferenz auf der Hannover Messe. Erschwerend kommt hinzu, dass vielfach die für den nutzbringenden Einsatz von KI-Methoden notwendigen Kompetenzen fehlen. Fachkräfte, die KI-Methoden versiert beherrschen, sind kaum vorhanden und am Arbeitsmarkt auch nicht zu bekommen.

Unschöne Konsequenz: Der Einsatz von Künstlicher Intelligenz steckt in der deutsche Industrie noch in den Kinderschuhen. Knapp 60 Prozent der Unternehmen nutzen KI derzeit lediglich zur Datenanalyse. Nur einer kleinen Gruppe von Unternehmen gelingt es, Künstliche Intelligenz grossflächig im eigenen Kerngeschäft einzusetzen, ihre Produkte mittels KI neu zu erfinden oder gar neue Produkte auf KI-Basis anzubieten. Das zeigt eine Untersuchung von Accenture. Diese KI-Vorreiter verflechten intelligente Technologien und menschliche Kreativität im Zusammenspiel mit Analytics und tiefer Branchenexpertise derart eng, dass sie bereits heute messbare Ergebnisse erzielen. So haben zwar 98 Prozent aller von Accenture untersuchten Unternehmen ihr bestehendes Angebotsportfolio bereits um einzelne KI-Anwendungen erweitert, aber nur jedes sechste Unternehmen (16 Prozent) verfügt über eine ganzheitliche Vision für den Einsatz von Künstliche Intelligenz.

Als Stolpersteine auf dem Weg zu einem intensiveren und kreativeren Einsatz von KI führten die von Accenture Befragten (Grundgesamtheit) an:

  • die schlechte Datenqualität als grösstes Problem (51 Prozent),
  • Bedenken bei der Daten- und IT-Sicherheit (45 Prozent),
  • die schwierige Abwägung zwischen dem Kauf von standardisierten KI-Lösungen und dem Entwickeln von eigenen individuellen Lösungen (45 Prozent)
  • sowie rechtliche Unsicherheiten bei der Weitergabe von Daten und dem Schutz geistigen Eigentums (40 Prozent).

Speziell bei den deutschen Unternehmen rangieren die Vor- und Nachteile von eigenen vs. zugekauften KI-Lösungen an erster Stelle (54 Prozent); Sicherheitsbedenken äusserten hierzulande aber nur 38 Prozent und Unklarheiten bei Datenweitergabe und geistigem Eigentum sah weniger als ein Drittel als drängendstes Problem im Kontext KI an (31 Prozent).

„Die Neuerfindung von industriell gefertigten Produkten durch KI steht noch ganz am Anfang und der Weg zum Erfolg ist alles andere als leicht”, kommentiert Eric Schaeffer, Senior Managing Director bei Accenture und Experte von "Industry of Things". „Jedoch zeigen die in unserer Studie belegten Erfolge der KI-Vorreiter ganz klar, dass dies machbar und der geschäftliche Nutzen von KI im Industriebereich sehr gross ist."

KI braucht Power-Hardware

Moderne, speziell auf KI ausgerichtete Hardware-Beschleuniger, machen die praktische Anwendung künstlicher Intelligenz in Echtzeit möglich. Dabei sind die technologischen Ansätze für eine solche dedizierte KI-Beschleunigung extrem unterschiedlich. So hat beispielsweise Prozessorhersteller Intel KI zu einem wichtigen Trendthema ausgerufen, das auf verschiedenen technologischen Wegen verfolgt wird: Einerseits wird maschinelles Lernen auf Basis von FPGAs vorangetrieben, andererseits offeriert das Unternehmen mit Nervana eigene dedizierte, auf neuronale Netzwerke ausgelegte Prozessoren. Speziell im letzteren Umfeld konkurriert der Chip-Gigant mit, fördert aber auch zahlreiche Startup-Unternehmen, die eigene Chip-Lösungen zur KI-Beschleunigung bieten.

Doch welche Technologie eignet sich hierfür besser: GPUs, DSPs, programmierbare FPGAs oder eigene, dedizierte Prozessoren? Antworten auf diese Frage gibt der Artikel "Welche Hardware eignet sich besser zur KI-Beschleunigung?"

Automobilindustrie ist besonders KI-affin

Was aber machen die von Eric Schaeffer erwähnten führenden Unternehmen beim KI-Einsatz besser als die "Low Performer"? Um signifikante Ergebnisse durch den Einsatz von Künstlicher Intelligenz zu erzielen, müssen Unternehmen laut Accenture zunächst vier Entwicklungsphasen durchlaufen:

  • 1. Die Vorteile von KI und die damit verbundenen Möglichkeiten, die eigenen Produkte mit digitalen Technologien neu zu erfinden, skizzieren.
  • 2. Eine Vision entwickeln, wie existierende Angebote durch KI ergänzt werden können.
  • 3. Die nötigen Ressourcen für die Entwicklung von KI-basierten Produkten bereitstellen.
  • 4. Ihre Vision und konkrete Initiativen umsetzen und so die digitale Neuerfindung von Produkten in grossem Massstab zu ermöglichen.

Teilt man die untersuchten Unternehmen nach Branche und aktuellem Stand bei der Nutzung in bestimmte Cluster ein, so zeigt sich, dass der Reifegrad bei der Künstlichen Intelligenz von Branche zu Branche sehr unterschiedlich ist. Automobilfirmen sind offenbar eher in der Lage, KI-Initiativen mit Nachdruck zu verfolgen und umzusetzen als andere. Immerhin erreichen bereits neun Prozent der Unternehmen aus der Automotive-Industrie die dritte und fünf Prozent sogar die vierte Entwicklungsstufe. Dagegen sind die Hersteller von Industrie- und Schwermaschinen und von langlebigen Konsumgütern noch nicht so weit. Nur sieben beziehungsweise drei Prozent erreichen hier die dritte Stufe. Lediglich ein Prozent schafft erklimmt Stufe 4 und damit das höchste Stadium der KI-Reife.

Die KI-Avantgarde – also jene zwei Prozent der Fertigungsunternehmen, die bereits die vierte Stufe erreicht haben und KI-Technologien in grossem Massstab einsetzen – zeichnen sich dadurch aus, dass sie eng mit Partnern in Ökosystemen zusammenarbeiten, um die KI-Anwendungen zu identifizieren, die im Zusammenspiel mit anderen Anwendungen den grössten Nutzen für den Kunden bringen. Dabei setzen die meisten Unternehmen auf KI-Lösungen wie maschinelles Sehen (73 Prozent), Deep Learning (64 Prozent) sowie robotergesteuerte Prozessautomatisierung (64 Prozent). Fazit: Wie (I)Iot oder Industrie 4.0, so macht man auch Künstliche Intelligenz (besser) nicht im Alleingang.

VDMA-Arbeitskreis will Machine Learning voranbringen

Um, basierend auf Künstlicher Intelligenz bzw. Machine Learning (ML), dem Thema Industrie 4.0 zusätzliche Schubkraft zu verleihen, hat der Maschinenbauverband VDMA kürzlich den Arbeitskreis „Machine Learning“ gegründet. Machine Learning sorgt dafür, dass Software und Informatik immer stärker zum massgeblichen Innovationstreiber im Maschinenbau werden.

Das VDMA Competence Center Future Business hat das Thema bereits 2017 mit der Studie "Machine Learning 2030 - Zukunftsbilder für den Maschinen- und Anlagenbau" ausgiebig beleuchtet. Auf Beschluss des Vorstandes des Fachverbands Software und Digitalisierung soll der VDMA das Thema nun in dem neuen Arbeitskreis, der Anwender und Anbieter zusammenbringt, weiter vorantreiben. Sprecher des Arbeitskreises ist Matthias Dietel, Focal Point Industrie 4.0, IBM Germany Lab, und Mitglied des Fachverbands-Vorstandes.

„Aktuell 375 Mitglieder im VDMA Fachverband Software und Digitalisierung zeigen deutlich, welch hohen Stellenwert Digitalisierung im Maschinenbau inzwischen geniesst“, betont IBM-Manager Dietel. „Machine Learning findet Einzug in unseren Alltag und deshalb sollten wir auch den Maschinenbau für den Einsatz der Künstlichen Intelligenz befähigen. Attraktive neue Märkte in der Datenanalyse und Cognitive Computing mit zweistelligem Wachstumspotenzial tun sich für den Maschinenbau auf.“

Maschinenbau-Unternehmen, die Machine Learning einsetzen wollen, fragen verständlicherweise nach Leitfäden, Roadmaps, Standardisierung und Zusammenarbeit mit Instituten und IT-Dienstleistern. „In unserer Studie ‚Machine Learning 2030‘ spielten Ausbildung, Datenhoheit aber auch ethische Fragen eine grosse Rolle. Wir haben Handlungsempfehlungen an Unternehmen, Politik und Forschung gegeben, die durch den Arbeitskreis nun weiter präzisiert und implementiert werden“, erklärt Dr. Eric Maiser, Leiter VDMA Future Business.

Rainer Glatz, Geschäftsführer von VDMA Software und Digitalisierung, bei dem das Thema ML nun verankert ist, betont: „Wir geben jetzt weiter Gas, das Thema ist reif. Nachdem wir in den letzten Jahren Industrie 4.0 im Maschinenbau und im VDMA etabliert haben, müssen wir nun auch die Potenziale für Machine Learning erschliessen. Entscheidend ist hierbei, dass wir Anbieter und Anwender zusammenbringen und die Nutzung von Machine Learning im industriellen Umfeld in den Mittelpunkt stellen.“

Erste Hilfe: Quick Guide "Machine Learning"

Der VDMA Expertenkreis "Machine Learning" hat als erste Handreichung einen Quick Guide verfasst. Der Leitfaden richtet sich vor allem an das Management von Maschinenbauunternehmen, die sich mit dem Thema Machine Learning in ihrem Unternehmen beschäftigen oder in Zukunft beschäftigen möchten. Ziel des Quick Guide ist es, dem Management erste Hilfestellungen zur betriebswirtschaftlichen Einschätzung und Relevanz von Machine Learning zu ermöglichen, um eine eigene Herangehensweise und Strategiedefinition daraus abzuleiten. Der Leitfaden gibt dabei Hinweise zu den Chancen, Herausforderungen und möglichen Lösungen. Vor allem soll der Quick Guide dabei helfen, sich dem Thema Machine Learning mit den richtigen Fragen zu nähern.

Denn die Anwendungsbereiche von Machine Learning im Maschinenbau sind vielfältig: Als prominente Beispiele nennt der VDMA Predictive Maintenance, industrielle Bildverarbeitung und Robotersteuerungen. Auch in der Logistik innerhalb und ausserhalb der Fabrik gibt es beträchtliche Potenziale. „Machine Learning wird nicht nur Industrie 4.0 weiteren Schub verleihen, sondern auch die Zusammenarbeit mit Softwarefirmen und Startups zum Wohle neuer Maschinenbau-Geschäftsfelder beflügeln“, glaubt Hartmut Rauen, stellvertretender VDMA-Hauptgeschäftsführer.

Machine Learning jenseits der Industrie

Methoden des Machine Learning können aber nicht nur in der Industrie ihre Vorteile ausspielen, sondern auch im Bereich Smart City oder beim autonome Fahren - einer Anwendung, die man nach Expertenmeinung in den kommenden Jahren auch auf deutschen Strassen erleben wird, und das keineswegs nur im Feldversuch.

Banken und Versicherungen nutzen schon heute ML- und KI-basierte Lösungen für Schadenmanagement und Fraud Detection (Betrugserkennung) ein. Der Healthcare-Bereich setzt auf Künstliche Intelligenz zur Früherkennung von Symptomen schwerwiegender Erkrankungen sowie zur Diagnoseunterstützung durch die Erkennung von Mustern in der Patientenakte und viele Energieversorger optimieren die Auslastung mittels intelligenter Netze (Smart Grids/Smart Metering).

KI: Die wichtigsten Verfahren und Algorithmen

Weil bislang im Bereich KI kein universeller Master Algorithmus, der auf Problemstellungen und auf Daten aller Art anwendbar ist, existiert, muss sich die Auswahl des "richtigen" Machine-Learning-Algorithmus an der jeweiligen Aufgabe orientieren. Nachfolgend werden einige Methoden und Haupttypen von Algorithmen für das maschinelle Lernen kurz skizziert.

Überwachtes Lernen beginnt typischerweise mit einem festgelegten Datensatz und einem gewissen Verständnis der Klassifizierung dieser Daten. Überwachtes Lernen soll Muster in Daten finden, die dann auf einen Analyseprozess angewendet werden können. Dabei wird ein Modell anhand von mit dem Ergebnis (z. B. Klassifikationsgruppe) gekennzeichneter Trainingsdaten erlernt. Überwachte maschinelle Lernverfahren werden im Rahmen einer Trainingsphase regelrecht auf ein Problem abgerichtet. Zu den überwachten Lernverfahren zählen alle Verfahren zur Regression oder Klassifikation, beispielsweise mit Algorithmen wir k-nearest-Neighbour, Random Forest, künstliche neuronale Netze, Support Vector Machines, aber auch Verfahren der Dimensionsreduktion wie die lineare Diskriminanzanalyse.

Beim unüberwachten Lernen hat man es mit nicht mit gekennzeichneten Daten zu tun. Die möglichen Antworten/Ergebnisse sind gänzlich unbekannt. Folglich kann man den Algorithmus nicht trainieren, indem man ihm die Ergebnisse, auf die er kommen soll, im Rahmen einer Trainingsphase vorgibt wie beim überwachten Lernen. Vielmehr werden Algorithmen genutzt, die die Struktur der Daten erkunden und für den Menschen sinnvolle Informationen aus Ihnen bilden (oder auch nicht). Unüberwachtes Lernen wird z.B. bei der Spam-Erkennung verwendet, da es zu viele Variablen in legitimen und Spam-E-Mails gibt, als dass ein Analyst die unerwünschten Massen-Mails kennzeichnen könnte. Stattdessen setzt man auf maschinelle Klassifizierer, um die Spammails zu identifizieren.

Das bestärkende Lernen oder Reinforcement Learning ist eine spezielle Form des überwachten Lernens. Dieses kommt immer dann zum Einsatz, wenn ein Endergebnis noch gar nicht bestimmbar ist, jedoch der Trend hin zum Erfolg oder Misserfolg erkennbar wird. Da die korrekten Ergebnisse in der Trainingsphase nicht zur Verfügung stehen, wird jedes Ergebnis bewertet, ob dieses (wahrscheinlich) in die richtige oder falsche Richtung geht.

Bayes-Verfahren:.Diese Algorithmen sind besonders nützlich, wenn Sie man keine grossen Datenmengen hat, um ein Modell sicher zu trainieren, aber Vorkenntnisse besitzt im Hinblick auf Teile des Modells besitzt. Ein typischer Fall wäre die Entwicklung eines bildbasierten Diagnosesystems, das nach Lungenerkrankungen sucht. Wurden beispielsweise die Wahrscheinlichkeiten verschiedener Lungenerkrankungen in Abhängigkeit vom jeweiligen Lebensstil bereits im Rahmen einer früheren Studie geschätzt, so können diese Wahrscheinlichkeiten direkt in das Modell kodiert werden. Man kombiniert also vorhandenes Wissen (die a priori Wahrscheinlichkeiten) mit beobachteten Daten. Details dazu unter Martin Lösch: Bayessches Lernen.

Clustering ist eine relativ einfache KI-Technik. Dabei werden Objekte mit ähnlichen Parametern gruppiert (in einem Cluster). Alle Objekte in einem Cluster sind einander ähnlicher als zu Objekten in anderen Clustern. Clustering ist eine Art des unüberwachten Lernens. Der Algorithmus interpretiert die Parameter, aus denen sich jedes Element zusammensetzt, und gruppiert sie dann entsprechend.

Entscheidungsbaumalgorithmen verwenden eine Verzweigungsstruktur, um die Ergebnisse einer Entscheidung darzustellen. Entscheidungsbäume können verwendet werden, um die möglichen Ergebnisse einer Entscheidung abzubilden. Jeder Knoten eines Entscheidungsbaums stellt ein mögliches Ergebnis dar. Die Prozentsätze werden den Knoten auf der Grundlage der Wahrscheinlichkeit des Auftretens des Ergebnisses zugeordnet.

Die Reduzierung der Dimensionalität hilft Daten zu entfernen, die für die Analyse überflüssig sind. Dazu gehören beispielsweise redundante Daten oder Ausreisser. Die Reduzierung der Dimensionalität kann z.B. bei der Analyse von Sensordaten und anderen Internet of Things (IoT) Anwendungsfällen hilfreich sein. In IoT-Systemen kann es Tausende von Datenpunkten geben, die lediglich signalisieren, dass ein Sensor eingeschaltet ist. Das Speichern und Analysieren dieser "On"-Daten birgt keine nützliche Information und belegt nur Speicherplatz. Darüber hinaus wird durch das Entfernen redundanter Daten die Leistung Machine-Learning-Systems verbessert. Schliesslich hilft die Reduzierung der Dimensionalität auch den Analysten, die Daten zu visualisieren.

Instanzbasierte Algorithmen werden verwendet, wenn man neue Datenpunkte anhand von Ähnlichkeiten zu Trainingsdaten kategorisieren will. Dieser Satz von Algorithmen wird manchmal auch als lazy learner (fauler Lerner) bezeichnet, weil es keine Trainingsphase gibt. Stattdessen gleichen instanzbasierte Algorithmen einfach neue Daten mit Trainingsdaten ab und kategorisieren die neuen Datenpunkte nach Ähnlichkeit mit den Trainingsdaten. Instanzbasierte Algorithmen können bei der Mustererkennung sehr nützlich sein. Beispielsweise wird diese Form des Lernens in der chemischen und biologischen Strukturanalyse eingesetzt.

Ein künstliches neuronales Netzwerk versucht, die Art und Weise nachzuahmen, wie ein menschliches Gehirn Probleme angeht. Es verwendet Schichten miteinander verbundenen Einheiten, um Beziehungen auf der Grundlage beobachteter Daten zu lernen und abzuleiten. Ein neuronales Netzwerk kann mehrere verbundene Schichten haben. Gibt es in einem neuronalen Netzwerk mehr als eine versteckte Schicht, wird das manchmal als Deep Learning bezeichnet. Neuronale Netzwerkmodelle sind in der Lage, sich anzupassen und zu lernen, wenn sich Daten ändern. Sie werden häufig verwendet, wenn unstrukturierte Daten vorliegen. Einer der wichtigsten Anwendungsfälle für neuronale Netze ist Machine Vision.

(Quelle: Hurwitz, Judith und Daniel Kirsch: Machine Learning, IBM Limited Edition, Wiley)

Weiterführende Literatur

Ayaz, Baris: Machine Learning in der Smart Factory, Industry of Things

Schmidt-Schauss, Manfred und David Sabel: Einführung in die Methoden der Künstlichen Intelligenz, Institut für Informatik, Goethe-Universität Frankfurt am Main

Ertel, Wolfgang: Grundkurs Künstliche Intelligenz - Eine praxisorientierte Einführung, Springer Vieweg

Jackson, Philip C.: Introduction to Artificial Intelligence, Courier Corporation

Domingos, Pedro: The Master Algorithm - How the Quest for the Ultimate Learning Machine Will Remake Our World, Penguin Books

Einige Projekte, Anwendungsszenarien und Best Practices aus verschiedenen Branchen/Bereichen seien nachfolgend vorgestellt, ergänzt um einige zukunftsweisende Forschungsansätze.

Künstliche Intelligenz im Maschinenbau

FORTISS: Die Fabrik der Zukunft konfiguriert sich selbst

Um in Zukunft flexibel und schnell auf Nachfrageänderungen reagieren zu können, ist für Produktionssysteme vor allem eine effiziente und einfache Arbeitsweise unabdinglich. Wie ein solches Szenario aussehen könnte, demonstrieren Forscher des Forschungsinstituts des Freistaats Bayern für softwareintensive Systeme und Services (Fortiss) mit ihrer Zukunftsfabrik „Fortiss Future Factory“.

Mithilfe einer kognitiven Produktionsanlage werden Methoden entwickelt, wie sich Fabriken in Zukunft von alleine an geänderte Anforderungen anpassen können. Durch den Einsatz Künstliche Intelligenz sollen vor allem Programmier- und Konfigurationskosten sinken. Herstellern will man die Möglichkeit bieten, bei Bedarf mit geringem Stillstand individuelle Produkte in kleinen Losgrössen zu fertigen. Die „Fortiss Future Factory“ besteht aus zehn miteinander vernetzten und beliebig kombinierbaren Stationen, die derzeit zwei Produkte mit je drei Varianten zusammenbauen können. Vom Grundsatz her ist die Palette der Produkte, die sich mit der Anlage herstellen lassen, unendlich: Von Aufbewahrungsdosen über Thermometer bis hin zu Rasierapparaten - alles ist machbar, wobei sich die Maschine immer wieder selbstständig konfiguriert, wie die Fortiss-Forscher betonen.

„Das Besondere an den Maschinen ist, dass sie sich selbst beschreiben können und ihre Fähigkeiten in virtuelle, ,Gelbe Seiten für registrierte Maschinen‘ hinterlegen“, erklärt Forschungsgruppenleiter Alois Zoitl. Erforderliche Produktbeschreibungen und Produktionsschritte sind im System gespeichert. Definierte Schnittstellen erlauben den Zugriff auf automatisch auswertbare Beschreibungen der Fähigkeiten der jeweiligen Fabrikmodule. Diese könnten bei Auftragseingang automatisch und kurzfristig umgerüstet werden, so der Wissenschaftler. Eine Planungssoftware aus dem gleichen Institut fungiert als virtueller Operator, der Aufträge einplant, vergibt, steuert und den gesamten Herstellungsprozess überwacht.

„Kern unserer Methode ist eine klare softwareseitige Entkopplung von Produktionsmaschinen und Komponenten voneinander sowie von den herzustellenden Produkten. Dadurch wird es erstmals möglich, Produktionsmaschinen und Komponenten beliebig zu kombinieren“, erläutert Zoitl. Dies werde durch höhere Rechenleistung in den Maschinen, eine höhere Vernetzungsbandbreite sowie verbesserte Algorithmen möglich gemacht.

Die Sensoren, die elementarer Bestandteil der Anlage sind, erfassen zurzeit lediglich den Betriebszustand der Maschine. Zukünftig will man aus den Sensordaten aber auch Informationen über ein mögliches Ausfallverhalten, über anstehende Wartungen oder die Produktqualität gewinnen. Die grösste Herausforderung wird nach Ansicht der FORTISS-Forscher jedoch in der steigenden Komplexität der wachsenden Anzahl an Produkten und Produktionsschritten liegen.

Das Konzept der Anlage lasse sich beliebig auch auf andere Anwendungsfelder übertragen. Bei FORTISS hat man unter anderem die Textilproduktion im Fokus. So sollen Kunden künftig im Online-Shop ihre Bekleidungsstücke selbst gestalten können. Die Bestellung wird dann direkt von der wandelbaren Fabrik erledigt.

Künstliche Intelligenz im Automotive-Bereich

Deep Learning und KI in der Motorenentwicklung

Das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI), das weltweit grösste gemeinnützige Forschungszentrum für KI, und IAV, einer der der führende Entwicklungspartner der Automobilindustrie, eröffnen das gemeinsame „Forschungslabor Lernen aus Prüfdaten“ (FLaP). In der neuen Testumgebung im DFKI in Kaiserslautern werden spezielle Analysemethoden der Künstlichen Intelligenz für den Einsatz in Prüfverfahren in der Automobilentwicklung erforscht und entwickelt. Zum Einsatz kommen Technologien des Maschinellen Lernens, darunter Deep Learning und Zeitreihenanalyse.

Das Anwendungspotential intelligenter Datenanalysemethoden für die Überwachung und Optimierung von Prüfdaten, Steuergeräten und Prüfständen in der Automobilindustrie ist nach Einschätzung der Partner "ausserordentlich". So verfügt beispielsweise ein modernes Motor-Steuergerät über mehr als 50.000 Einstellparameter, die massgebend sind für Leistung, Verbrauch, Verschleiss und die gesamte Performanz des Motors. Durch Deep Learning-Technologien, genauer den Einsatz neuronaler Netze im Steuergerät, kann dieses selbstständig „lernen“ wie die Eingangsgrössen optimal einzustellen sind.

Die Verwendung solcher Netze bei der Zeitreihenanalyse von Motorprüfdaten ermöglicht zudem neue Ansätze für „Predictive Health Monitoring“, so dass daraus die Voraussage von Verschleiss und Wartungsfällen verbessert werden kann. Ebensolche Verfahren sollen in dem neuen Forschungslabor

erforscht und entwickelt werden. Gleichzeitig soll im FLaP auch an neuen Visualisierungsmöglichkeiten für die vielfältigen Messdaten aus den neuronalen Netzen gearbeitet werden. Geplant ist die Erstellung eines Werkzeugkastens von KI-Tools, die von Automobil-Ingenieuren intuitiv eingesetzt werden können.

„Neben den vielversprechenden Möglichkeiten beim Einsatz auf bestehender Hardware in Serienfahrzeugen werden im FLaP auch neuartige Anwendungsfälle für selbstlernende neuronale Netze erforscht“, erläutert Prof. Dr. Andreas Dengel, Leiter des Forschungsbereichs Smarte Daten & Wissensdienste am DFKI. „Ziel ist es, sowohl auf lange Sicht grundlegende Erkenntnisse zu erarbeiten als auch kurzfristig konkrete Lösungen zu aktuellen Problemstellungen zu entwickeln.“ Matthias Schultalbers, Executive Vice President for Powertrain Mechatronics bei IAV: „Gemeinsam mit dem DFKI übertragen wir die vielfältigen Anwendungspotenziale der KI-Technologien in die Antriebsstrangentwicklung. Dies beinhaltet auf der einen Seite den Einsatz von KI in Steuerungssystemen, auf der anderen Seite neue Möglichkeiten zur Effizienz- und Robustheitssteigerung im Entwicklungsprozess. Als Engineering-Partner der Automobil-OEMs heben wir das Engineering durch KI und Deep Learning auf ein völlig neues Level.“

Mit dem FLaP setzt das DFKI auf sein bewährtes Konzept: Die enge Zusammenarbeit mit der Industrie in realitätsnahen Forschungsumgebungen. Damit gelingt es, zeitnah innovative KI-Technologien und Lösungsansätze in die Praxis zu transferieren. Ausserdem wird die aktuelle Forschung durch den intensiven Dialog mit führenden Anwendern wie IAV nachhaltig "inspiriert". Der Automotive-Entwicklungspartner IAV baut mit dem gemeinsamen Labor sein umfangreiches Kooperationsnetzwerk mit Forschungseinrichtungen, Universitäten und industriellen Partnern aus. Das FLaP in Kaiserslautern ist bereits der 18. Kooperationsstandort in Deutschland.

Das Postauto wird intelligent

Autonom Fahren und das elektrisch, steht bei der Deutschen Post DHL Group ganz oben auf der Agenda. Dazu wird der Logistikkonzern eine Testflotte von autonomen und rein elektrischen Lieferfahrzeugen aufbauen. Partner ist der Automobilzulieferer ZF - denn die "Postautos" werden mit der Steuerbox ZF ProAI ausgestattet, die die ZF Friedrichshafen AG gemeinsam mit NVIDIA entwickelt hat. Sie macht den Einsatz von Künstlicher Intelligenz (KI) im Automotive-Umfeld möglich und ist damit eine Voraussetzung für autonome Fahrzeuge.

Die leichten, elektrischen und intelligenten Lieferfahrzeuge können vor allem den künftigen Anforderungen auf der „letzten Meile“ zum Kunden besser entsprechen, die aktuell durch die Flexibilitätserwartungen beim E-Commerce sowie die Erfordernisse der Disposition sehr komplex und kostenintensiv sind. Die Deutsche Post DHL Group hat aktuell eine Flotte von 3400 Street-Scooter-Lieferfahrzeuge. Diese lassen sich mit ZF-Sensorik - Kamera, Lidar- und Radarsensoren - ausrüsten, deren Informationen von der Steuerbox ZF ProAI verarbeitet werden. Dank KI können die Fahrzeuge später ihre unmittelbare Umgebung „verstehen“, eine sichere Route planen – oder auch kurzfristig umplanen –, die Route abfahren verfolgen und das Fahrzeug eigenständig parken. So werden Zustellungen präziser, sicherer und günstiger.

„Das Beispiel autonomer Lieferfahrzeuge zeigt, wie stark KI und Deep Learning die Nutzfahrzeugindustrie beeinflussen“, so Jensen Huang, Gründer und CEO von NVIDIA. „Da die Bestellungen durch Online-Shopping weiter stark zunehmen, die Zahl der Lkw-Fahrer aber begrenzt ist, kommt KI-fähigen autonomen Fahrzeugen eine Schlüsselstellung in der künftigen Logistik auf der ‚letzten Meile‘ zu.“

Jürgen Gerdes, Mitglied des Vorstands Deutsche Post AG , ist sich sicher, dass die Entwicklung neuer Transportsysteme, die ökologisch, wirtschaftlich und effizient sind, die Logistikindustrie stark verändern wird. "Durch unsere Zusammenarbeit mit ZF und NVIDIA werden wir diesen Wandel nachhaltig voranbringen, zugleich von ihm profitieren und dadurch unsere Position als Innovationsführer der Branche untermauern.“

„Mit seiner Flotte von Street-Scooter-Lieferfahrzeugen macht Deutsche Post DHL Group nun den nächsten Schritt in Richtung künstliche Intelligenz und nutzt dazu unsere aktuelle und künftige Generation von Umfeld-Sensortechnologie sowie die ZF ProAI als Gehirn – eine Steuerbox, in der die Supercomputing-Power von NVIDIA steckt“, so Dr. Stefan Sommer, CEO der ZF Friedrichshafen AG. „Der Auftrag freut uns besonders, zumal er unserem Ansatz entlang der Wirkkette ‚See – Think – Act‘ folgt. Das Sehen übernimmt in diesem Fall unser Sensorset, für die Signalverarbeitung und das Denken ist die ZF ProAI verantwortlich, die über unsere herausragenden mechatronischen Systeme in Antrieb, Fahrwerk und Lenkung auch die Bewegung des Fahrzeugs kontrollieren kann.“

Sommer ergänzt: „Bei der Versorgungslogistik und auf der ‚letzten Meile‘ der Paketlogistik haben autonom fahrende Lieferfahrzeuge ein enormes Potenzial, da sie Güter unabhängig von der Tageszeit und der Verfügbarkeit von Fahrern bewegen können – und das bei minimalen Geräusch- und Abgasemissionen. Auf diese Weise können sie wesentlich dazu beitragen, die Anfälligkeit für Verkehrsstaus in urbanen Zentren zu senken.“

Um diese KI-Lieferfahrzeuge zu entwickeln, hat die Deutsche Post DHL Group bereits sein Rechenzentrum mit dem Supercomputing-Chip NVIDIA DGX-1 ausgerüstet und trainiert so dessen künstliches neuronales Netz. Im Laufe der weiteren Fahrzeugentwicklung werden diese Deep-Learning-Algorithmen später auf die Fahrzeug-Steuerboxen auf der NVIDIA Drive PX-Plattform übertragen. Bei einem Prototyp, der auf der NVIDIA-Entwicklerkonferenz „GPU Technology Conference“ (GTC) in München vorgestellt wurde, versorgen sechs Kameras, ein Radar- und zwei Lidar-Systeme die KI mit Daten.

Künstliche Intelligenz in der Logistik

Der Algorithmus ersetzt den Disponenten

Die Logistikbranche erlebt unter dem Vorzeichen der Digitalisierung grundlegende Veränderungen und immer Berufsbilder geraten unter Anpassungsdruck. Ein gutes Beispiel dafür ist der Disponent. Seine Hauptaufgabe liegt traditionell in der Optimierung von Transporten und in der Preisfindung. Beiden Aufgaben bereits heute von Computern unterstützt.

Digitale Speditionen wie FRACHTRAUM unterfüttern gleich das komplette Geschäftsmodell mit selbstlernenden Algorithmen. Aus dieser Perspektive steht für das Berliner Unternehmen fest, dass sich die Rolle des Menschen in der Logistik-Disposition aufgrund immer besser arbeitender Algorithmen stark wandeln wird: von der Planung und Optimierung eines Transports hin zur Betreuung und dem Management der involvierten Personen.

Die Preisfindung in der Logistik unterliegt vielen Faktoren von unterschiedlicher Dynamik. Dazu gehören neben Gewicht und Streckenlänge des Transports, Feier- und Brückentagen, der Verfügbarkeit des angefragten Lkw-Typs, Lademitteltausch oder saisonalen Nachfragespitzen auch Faktoren wie die Kurzfristigkeit der Buchungsanfrage sowie der aktuelle Kraftstoffpreis.

Die Auswahl der mehr als 100 Parameter, die Disponenten bei der Ermittlung eines Transportpreises in Betracht ziehen müssen, zeigt, wie komplex und folglich fehleranfällig dieser Prozess ist. Das ist einer der Gründe, warum die grossen Logistikunternehmen mit regionalen Niederlassungen arbeiten, denn Disponenten können diese Informationsdichte ausschliesslich für einen regional begrenzten Raum gewährleisten. Nur dort bleibt die Komplexität des Dispositionsvorgangs überschaubar. Ein auf Machine Learning basierender Algorithmus hingegen ist in der Lage, alle relevanten Parameter innerhalb weniger Sekunden einzubeziehen und auf dieser Grundlage quasi ad-hoc einen verbindlichen Preis zu ermitteln - für jede Art von Transport.

Gleichzeitig verbessert sich die Qualität der getroffenen Lösung mit jedem durchgeführten Transport, da sich mit diesem "automatisch" die zur Verfügung stehende Datenmenge erhöht, auf deren Grundlage der Preis errechnet wird. Von vielen Seiten wird zwar nach wie vor argumentiert, der Disponent werde aufgrund seiner Erfahrung und eines gewissen "Bauchgefühls" immer noch das entscheidende letzte Wort haben. Doch in digitale Speditionen wie FRACHTRAUM von der langfristigen Überlegenheit des Algorithmus in der Preisfindung für und Optimierung von Transporten überzeugt. Deshalb sehen sie die Aufgabe des Disponenten in wachsendem Masse in der Rolle des menschlichen Bindeglieds zwischen Fahrer und Verlader.

Transportoptimierung bei Strassengütertransporten ist sehr eng verwoben mit der Lösung des sog. Vehicle Routing Problems, also der Frage, wie Lkw-Fahrten in eine optimale Sequenz zu bringen sind, damit möglichst wenig Leerfahrten absolviert und somit Kapazitäten optimal ausgenutzt werden. Analog zur Preisfindung wird die Routenoptimierung von einer Vielzahl an Faktoren beeinflusst .- z.B. durch die Transportzeit, die verfügbaren Be- und Entladefenstern oder die gesetzlich vorgeschriebenen Pausenzeiten. Jeder Faktor ist mathematisch gleichzusetzen mit einer zusätzlichen Nebenbedingung, die bei der Lösung des Problems zu berücksichtigen ist.

Selbst bei der Disposition eines einzigen Trucks ist die optimale Lösung eines solchen Gleichungssystems alles andere als trivial. Das menschliche Gehirn ist - auch im Zusammenspiel mit Kalkulationsprogrammen wie Excel - nicht für den Umgang mit derartigen Datenkonstrukten gemacht. Hochgerechnet auf ein dichtes Netzwerk an Fahrten kommt man sehr schnell an einen Punkt, an dem die Komplexität der Nebenbedingungen jeden Disponenten förmlich "erschlägt". Die Routenplanung gilt nicht umsonst als Königsdisziplin der Logistik. Hier kommt die Stärke des selbstlernenden Algorithmus immer stärker zum Tragen, da er tendenziell in der Lage ist, die komplexen Berechnungen, die für die Sequenzierung der Transporte notwendig sind, unter Einbeziehung aller relevanter Parameter in Bruchteilen von Sekunden zu bewerkstelligen.

Deshalb steht ein "Zeitenwechsel" kurz bevor: Spätestens in den nächsten fünf Jahren wird sich das Verhältnis zwischen Mensch und Computer unumkehrbar zugunsten der Algorithmen wenden und immer mehr Optimierungsaufgaben von ihnen erledigt werden, ist man bei FRACHTRAUM überzeugt. Dabei geniessen die Markt-Akteure einen entscheidenden Vorteil, deren Geschäftsmodell von Anfang an technologiegetrieben waren und die ohne strukturelle Altlasten die Vorteile digitaler Entwicklung konsequent nutzen konnten. Und so führt das Berliner Startup bereits ein Jahr nach Markteintritt monatlich rund 3000 Transporte auf Basis selbstlernender Algorithmen vollautomatisch durch.

Einkauf, Marketing, Support: Das "Internet der Sprache" kommt

Digitaler Sprachasssistent: Für die Mehrheit der Bundesbürger ist das kein Fremdwort mehr, wie das Hamburger Marktforschungsinstitut SPLENDID RESEARCH im Rahmen einer repräsentativen Online-Umfrage herausgefunden hat.. Untersucht wurde, in welchem Umfang digitale Sprachassistenten eingesetzt werden, welche Verwendungsmöglichkeiten beliebt sind und warum Nicht-Nutzer die Assistenten ablehnen. Ausserdem wurde das Marktpotenzial für gerätegebundene Sprachassistenten erhoben.

Mehr als 70 Prozent der Deutschen wissen, was ein digitaler Sprachassistent ist, allerdings haben bis dato nur 37 Prozent diese Möglichkeit der Gerätesteuerung ausprobiert. Vor allem auf dem Smartphone vorinstallierte Sprachassistenten werden gut angenommen. Apples Siri und der Google Assistant sind mit jeweils 15 Prozent Nutzern die beliebtesten Eingabehilfen der Deutschen. Bemerkenswert: Nicht nur die die Generation der Digital Natives kann sich für das "Internet der Sprache" begeistern: Selbst angehende "Silver Ager" wissen den Komfort solcher System zu schätzen. Jeder Dritte in der "Kohorte" der 50- bis 59-Jährigen nutzt diese Technologie. 67 Prozent der befragten Smartphone-Nutzer verwenden die Spracheingabe für das Schreiben von Nachrichten; auch Suchmaschineneingaben werden gerne verbal durchgeführt (65 Prozent)

Nicht ganz so ausgeprägt ist das Interesse an intelligenten Lautsprechern wie Echo (Alexa) oder Google Home. So ist das Kaufpotenzial für intelligente Lautsprecher sehr gering: nur etwa zwei Prozent der Nicht-Nutzer halten es laut Umfrage für wahrscheinlich, sich im Jahr 2018 ein solches Gerät zuzulegen. Dabei hätte Amazon mit dem Echo klar die höchste Präferenz: zwei Drittel können sich vorstellen, das Gerät zu kaufen, ein Drittel zieht Google Home in Betracht, der Apple HomePod kommt für jeden Zehnten in Frage.

"Wie schnell die Verbreitung des Internets der Sprache zunimmt, wird davon abhängen, ob bedürfnisorientierte Verwendungsmöglichkeiten zur Verfügung stehen", ist Carina Krämer, Studienleiterin von SPLENDID RESEARCH, überzeugt. "Ein Smartspeaker mit der die Fähigkeit, Räume zu überwachen und den Besitzer zu alarmieren, könnte äussert erfolgreich sein."

Cisco bringt Künstliche Intelligenz ins Meeting

Mit den Plaudertaschen im Handy den intelligenten oder den smarten Lautsprechern von Amazon & Co. hat der neue Sprachassistent von Cisco allenfalls gewisse Basistechnologien gemeinsam. Der Spark Assistant, den das US-Unternehmen als den weltweit ersten lernfähigen Sprachassistenten apostrophiert,, wendet sich ganz klar an den professionellen Nutzer, an Unternehmen, die mit dem klugen System in die Welt des Arbeitens 4.0 vorstossen wollen.

Der Spark Assistent, so Anbieter Cisco, vereinfacht die Organisation von Meetings und schafft Raum für mehr Produktivität. Machine-Learning-Technologie von MindMeld macht Dialogfunktionen lernfähig. „In absehbarer Zeit werden KI Meeting-Bots ganz selbstverständlich Teil eines Teams sein. Während sie sich um die organisatorischen Routine-Aufgaben kümmern, können sich die menschlichen Teammitglieder ganz drauf konzentrieren, ihr kreatives Potenzial zu entfalten“, weiss Rowan Trollope, Senior Vice President und General Manager Applications Group von Cisco.

Über den Befehl „Hey Spark“ und eine konkrete Aufforderung können Mitarbeiter auf unterschiedliche Funktionen zugreifen - zum Beispiel eine Besprechung beginnen, einem persönlichen WebEx-Besprechungsraum oder dem eines Kollegen beitreten, ein Meeting aufzeichnen oder beenden oder einen bestimmten Kollegen anrufen. Zum Start funktioniert die Sprachsteuerung allerdings nur auf Englisch; weitere Sprachen sollen im Laufe des Jahres 2018 folgen.

Um die Arbeit mit dem neuen Kollegen schnell und reibungslos zu gestalten, wurde der Spark Assistant mit folgenden Technologien und Funktionen ausgestattet:

  • Machine-Learning-Technologie von MindMeld (seit 2017 Tochterunternehmen von Cisco),
  • Spracherkennungstechnologie,
  • gutes Verständnis natürlich gesprochener Sprache,
  • Antwortfunktionen für Fragen,
  • Dialogmanagement-Funktionen.

Der Spark Assistant wird zunächst auf Cisco Spark Room-Endgeräten verfügbar sein. Dazu gehört die neueste Cisco Spark Room 70-Serie. Der Spark Assistant nutzt dort die integrierten Technologien wie Intelligent Proximity (Ultraschall-Paarung mit Smartphones zur Steuerung und zum Teilen des Bildschirms), Speaker-Tracking (Zoom auf die Person, die gerade spricht) und Echtzeit-Gesichtserkennung. Als Bestandteil der Cisco Spark Room Series verfügt die Cisco Spark Room 70 über einen oder zwei 70-Zoll-Bildschirme mit 4K-Auflösung und eine Quad 5K-Kamera. Dank dieser Ausstattung kann der Assistent seine Umgebung wahrnehmen und erkennen, wer z.B. den Konferenzraum betritt, ihn verlässt oder welche Person gerade spricht.

Künstliche Intelligenz als Assistent im Einkauf

Durch natürliche Sprachverarbeitung und Künstliche Intelligenz wird das Einkaufen schneller, intuitiver und angenehmer. Davon ist man bei Basware überzeugt. das finnische Softwareunternehmen hat auf AP & P2P Conference & Expo im Frühjahr 2018 den Basware Assistant, eine neue Chatbot-Funktion innerhalb seiner elektronischen Beschaffungslösung, vorgestellt. Der Chatbot dient als virtueller Assistent, der es Menschen ermöglicht, Bestellanfragen und Bestellungen, auf die sie Zugriff haben, leichter zu finden.

Der Basware Assistant nutzt natürliche Sprachverarbeitung und künstliche Intelligenz, um eine neue und vereinfachte Art der Interaktion mit der E-Procurement-Lösung von Basware zu schaffen. Einkäufer können mit dem Basware-Assistenten wie mit einer Person aus Fleisch und Blut kommunizieren, um nach Bestellungen, Kaufanfragen, Lieferanten- und Artikelnamen sowie ID- und Dokumentnummern zu suchen. Durch die verbale Kommunikation mit der Sourcing-Lösung entfällt die Notwendigkeit, wie bisher durch eine Reihe von Bildschirmen zu navigieren, um zum gewünschten "Vorgang" zu gelangen.

Durch seine natürliche Sprachverarbeitung (Natural Language Processing) und seine KI-Fähigkeiten verbessert der virtuelle Assistent die Benutzerfreundlichkeit des Systems und macht einen weiteren Schritt zur Rationalisierung des gesamten Beschaffungsprozesses. Es hilft nicht nur, Bestellungen und Bestellanforderungen schneller zu finden und Zeit zu sparen, es reduziert auch den Schulungsaufwand für neue Mitarbeiter. "Die beste Benutzeroberfläche ist die, die Sie nicht verwenden müssen - sie läuft nur im Hintergrund", meint Bhavin Shah, Director of Product Management bei Basware. "Das ist es, was wir mit dem Assistenten erreichen wollen."

Alexa entlastet Einkäufer bei Routine-Aufgaben

Alexa, wo ist der Schnuller? Mit dieser Frage werden die Nutzer der digitalen Procurement-Lösung von POOL4TOOL (heute Jaggaer) das clevere Fernfeld-Spracherkennungssystem Alexa (alias Echo) ganz sicher nicht konfrontieren. Obwohl die von Amazon entwickelte digitale Assistenz primär für dem Heimgebrauch konzipiert wurde, integriert der Spezialist für Sourcing-Lösungen Alexa und Alexa-fähige Endgeräte in seine Applikation, um Routine-Aufgaben im Einkauf mit Hilfe von Sprachsteuerung zu erleichtern. Einkäufer sollen künftig mit der digitalen Assistenz relevante Einkaufsroutinen effizienter abwickeln und somit wichtige Ressourcen einsparen.

„Unsere Aufgabe als Lösungsanbieter ist es, neue Technologien zu integrieren und damit Mehrwert für die End-User zu schaffen. Digital Procurement ist die Zukunft und wird den Einkauf revolutionieren. Wir investieren in Lösungen und Technologien rund um Smart Procurement und digitale Intelligenz, um unseren Kunden ein besseres Nutzererlebnis mit unserer Lösung zu bieten, um Einkaufsprozesse noch effizienter zu gestalten“, umreisst Michael Rösch, COO von Jaggaer, die Digital Procurement-Strategie des in Wien ansässigen Einkaufsspezialisten.

Besserer Kundenservice mit Künstlicher Intelligenz und virtuellen Assistenten

Pegasystems, US-Anbieter strategischen Software-Lösungen für Vertrieb, Marketing, Service und Operations, will dafür sorgen, dass Nutzer der Pega-Software, noch schneller und effizienter auf eingehende Serviceanfragen kanalübergreifend reagieren können. Dazu hat man neue Funktionen für Künstliche Intelligenz und virtuelle Assistenten in die hauseigenen Lösungen integriert.

Verbraucher haben immer mehr Möglichkeiten, sich mit einer Kundendienstorganisation in Verbindung zu setzen, um Probleme zu beheben, Bestellungen zu überprüfen oder Informationen anzufordern. Die Echtzeit-Analyse eingehender Chat-Nachrichten, E-Mails und Telefonanrufe mit Pega ermöglicht es Service-Mitarbeitern, die Bedürfnisse ihrer Kunden sofort zu verstehen und diese schneller mit den benötigten Informationen zu versorgen. Service-Probleme können damit schneller gelöst und Fehler vermieden werden, bei gleichzeitiger Verbesserung der Kundenzufriedenheit.

Mit der neuesten Version der Anwendung Pega Customer Service und der Pega Platform bietet das Unternehmen für seine Kundenbindungslösungen zusätzliche Intelligenz und Robotik-Funktionalität an. Dadurch könnten selbst Kanäle mit extrem hohem Datenaufkommen konstant gute Ergebnisse liefern, verspricht das in Cambridge (Mass.) beheimatete Softwareunternehmen.

So unterstützt ein AI-Augmented Agent Service-Mitarbeiter mit KI-basierten Antworten, Ziel ist, Online-Chats zu beschleunigen. Jede Nachricht wird dazu in Echtzeit kontextuell mit Natural Language Processing analysiert. Resultat sind Vorschläge für die relevantesten Antworten.

Ein Pega Intelligent Virtual Assistant für E-Mails prüft automatisch alle eingehenden Mails, sodass Servicekräfte nicht mehr jede Nachricht manuell bearbeiten müssen. Der Assistent eröffnet selbständig einen neuen Servicefall und leitet ihn an die richtige Stelle weiter – entweder an einen Mitarbeiter oder an einen anderen Bot.

Die Funktion Intelligent Interactive Voice Response (IVR) umgeht bei bestehenden IVR-Systemen unwichtige Telefonmenü-Optionen und personalisiert damit das Call-in-Ergebnis. Pega IVR analysiert mit künstlicher Intelligenz vorherige Interaktionen und Kontoinformationen des Kunden, um den Grund für einen eingehenden Anruf zu eruieren.

Pega Customer Service, Teil der Pega Software Suite für Kundenbindung, antizipiert Kundenbedürfnisse und verbindet Kunden mit dem richtigen Personal und den entsprechenden Systemen. Jeder Schritt der Interaktionen wird entweder automatisiert oder intelligent geleitet. Die Anwendung basiert auf der Pega Platform.

Ask Mercedes - ein Chatbot ergänzt die Bedienungsanleitung

Niemand mag sie, aber jeder braucht sie: die Betriebsanleitungen von Automobilen. Ob digital oder in der Print-Version handelt es sich bei diesen um mehr oder minder ausgewachsene Bordhandbücher. Folge: Ihre Existenz wird ignoriert; nur im absoluten Notfall wirft der Fahrzeuglenker einen Blick hinein. Oder auch nicht – was unter Umständen fatale Konsequenzen haben kann.

Bei Mercedes-Benz hat man über Alternativen nachgedacht und ergänzt jetzt die seit Jahren digital verfügbare Bedienungsanleitung für die E- und S-Klasse um einen intelligenten, intuitiv und leicht zu nutzenden Chatbot. Der Chatbot, der auf den sinnigen Namen „Ask Mercedes“ hört, wurde gemeinsam mit IBM entwickelt und kann entweder als “Ask Mercedes App” herunter geladen oder auch über Facebook und andere Messenger Dienste abgerufen werden. Der Chatbot ist aktuell in Südafrika, in Indien und Hongkong verfügbar. 2018 folgt auch eine Version in deutscher Sprache.

Basis für die Entwicklung ist die leistungsfähige Spracherkennungs-Software moderner Chatbots, die sehr viel mehr kann als nur die die klassischen FAQ (Frequently Asked Questions)-Kataloge zu beantworten. Diesen Entwicklungssprung nutzt Mercedes-Benz, um Fahrern den Umgang mit ihrer E- und S-Klasse zu erleichtern: der Chatbot „Ask Mercedes“ lässt (fast) keine Fragen zum Betrieb dieser Fahrzeug-Klasse mehr offen. Das ist nicht nur praktisch im Hinblick auf die wachsende Anzahl von Funktionalitäten in den Automobilen des schwäbischen Premiumherstellers, sondern hilft auch den Nutzern eines Share- oder Mietfahrzeugs, sich bei Bedarf schneller zurechtzufinden.

Der Chatbot arbeitet im Hintergrund mit KI-basierter IBM Watson Conversation Technologie. Diese hat in unabhängigen Tests schon mehrfach bewiesen, was sie zu leisten im Stande ist: nämlich in natürlicher Sprache einen Dialog mit Menschen führen, sodass das Zurechtfinden im Auto und die Nutzung zum Beispiel von Knöpfen, Lampen und anderen Modulen intelligent unterstützt wird. Oder auch allgemeine Fragen zu Mercedes, wie etwa zur neuen Elektromobilitätsmarke EQ, zu beantworten.

Der Chatbot kennt das Auto und seine Funktionalitäten aus dem Effeff, dafür wurde er trainiert. Er kann in natürlicher Sprache befragt werden und ist in der Lage, eine Fahrzeugfunktionalität zu erklären, unabhängig davon, wie der Fahrer danach gefragt hat. So führt beispielsweise die Frage „Wie kann ich sportlich/ökonomisch fahren“ genauso zum Hinweis auf den „Dynamic Select“- Schalter wie die direkte Frage „Was ist Dynamic Select?“

Dieser digitale Dialog ist ausserdem keine Einbahnstrasse: „Ask Mercedes“ fragt auch zurück, wenn er mehrere Antwortoptionen zur Auswahl hat und besser verstehen möchte, was genau der Fahrer wissen will. Zudem kann er Fragen unter Zuhilfenahme von Multi-Media Inhalten, also etwa Grafiken oder Zeichnungen, beantworten. Aber der Chatbot kennt auch seine Grenzen: Wenn er merkt, dass er eine Frage nicht korrekt beantworten kann, verweist er auf weiterführende Informationen oder an das Call Center.

Künstliche Intelligenz und Human Resources

EmpaT – Interaktive Coaching Avatare trainieren Stellenbewerber

Bewerbungen sind für Menschen schwierige, hoch-emotionale Situationen. Bewerber haben vom ersten Moment an die Aufgabe, einen gewinnenden, positiven Eindruck zu etablieren und aufrechtzuerhalten. Interviewer wiederum - zum Beispiel "Personaler" oder auch die künftigen Vorgesetzten - müssen sich flexibel auf unterschiedliche Typen von Bewerbern einstellen und entsprechend das Bewerbungsgespräch führen.

Die im Projekt EmpaT (Empathische Trainingsbegleiter für den Bewerbungsprozess) des DFKI entwickelte interaktive 3D-Trainingsumgebung für Bewerbungsgespräche ermöglicht interaktive Dialoge mit virtuellen Avataren. Durch die Echtzeit-Analyse sozialer Signale (Sprache, Mimik, Gestik und Körperhaltung), die in dem neu entwickelten Benutzermodell für Emotionen MARSSI weiterverarbeitet werden, kann das Verhalten des interaktiven Trainingsavatars an die individuelle sozio-emotionale Situation des Bewerbers angepasst werden.

MARSSI (Model for Appraisal, Regulation and Social Signal Interpretation) beschreibt auf symbolischer Ebene, wie Sequenzen sozialer Signale mit internen emotionalen Zuständen verknüpft werden können und vereint erstmals verschiedenartige emotionspsychologische Erkenntnisse. Insbesondere wird die Richtungsinformation kommunikativer Emotionen berücksichtigt. Zudem wird für die interne Modellierung von strukturellen Emotionen (z.B. Scham) das Timing interner emotionaler Prozesse einbezogen. Ausgehend von typischen Mensch-Mensch-Interaktionen wurden Mehrkanal-Signal-Klassifikatoren gelernt, die die Erkennung affektiver Signal-Sequenzen in Echtzeit erlauben. Um detailliertere Hypothesen bezüglich interner Benutzer-Emotionen automatisch erzeugen zu können, ist allerdings zusätzliche (Grundlagen-)Forschung notwendig.

DFKI-Projektleiter Dr. Patrick Gebhard erklärt: “Der EmpaT-Ansatz ist ein weiterer Schritt in Richtung sozial-emotionale interaktive Systeme, die zu unterschiedlichen Trainingszwecken eingesetzt werden können. Der Ansatz ermöglicht ein einfühlsames Trainieren von sozialen Fähigkeiten in verschiedensten Bereichen wie z.B. der Mitarbeiterführung und Kundeninteraktion, aber durchaus auch beim Wiedererlernen von kognitiven und körperlichen Fähigkeiten während der Rehabilitation neuro-psychologischer Erkrankungen.

Im Projekt wurden 22 Akzeptanz- und Evaluationsstudien durchgeführt, um ein möglichst breites Bild zu bekommen, welche Faktoren ein Bewerbungsgespräch beeinflussen und wie die EmpaT-Simulation akzeptiert wird. So ist der EmpaT-Ansatz der klassischen Vorbereitung auf Job-Interviews hinsichtlich Angstreduktion, Körpersprache und Interviewperformance überlegen. Virtuelles Training, gestützt durch automatische Erkennung von non-verbalem Verhalten, erweitert um Analyse und Feedback zum non-verbalen Verhalten, kann dazu dienen, echte Bewerbungsgespräche effektiv vorzubereiten. Eine mögliche Interaktion könnte folgendermassen aussehen:

Avatar: Guten Tag Herr Langer. Schön, dass sie hergefunden haben. Mein Name ist Sonja Schneider und ich werde mit Ihnen das Bewerbungsgespräch durchführen. Bitte setzen sie sich!

Bewerber setzt sich.

Avatar: Gut. Als erstes würde ich gerne zu Ihrem Lebenslauf kommen. Erzählen Sie mir bitte etwas über sich. Was haben Sie bis jetzt gemacht, was für die ausgeschriebene Stelle wichtig wäre?

Bewerber: Ich bin 26 Jahre alt und habe nach der Schule eine Ausbildung bei […]

Avatar: Was Sie erzählt haben, haben alle anderen Bewerber auch schon gesagt. Sie haben da jetzt nicht gerade herausgestochen...

Dieser provozierende Kommentar des Interviewers dient dem Zweck, zu testen, wie Bewerber mit Kritik umgehen können und in wie weit sie sich verteidigen können. Es ist nicht einfach, solche Kommentare entspannt und gelassen zu beantworten.

Die durch das System erfassten und interpretierten Signale dienen einem menschlichen Coach als zusätzliche Information, um damit genauer Situationen analysieren zu können. Diese Informationen können auch von einem interaktiven Coaching-Avatar für Strategietipps und Hinweise genutzt werden. Welche Art des Coachings genutzt wird, können Bewerber frei entscheiden.

SAP schlaut seine HR-Software mit KI auf

Mithilfe von Machine Learning Technologie will Softwareriese SAP seien ERP-Unternehmenssoftware "aufschlauen". Im Visier hat der Walldorfer ERP-Spezialist seien Produkte für Personalwesen (HR), Workforce Management und Spesenabrechnung. Das berichtet der Newsletter IoTI Informer des New Yorker IoT Institute unter Berufung auf Mike Flannagan, Senior Vice President of Analytics und SAP Leonardo. Ziel: die Anwender der betreffenden SAP-Programmpakete bei der Rekrutierung von Fachkräfte zu unterstützen und den Einsatz temporärer Mitarbeiter zu optimieren.

"Unsere Kunden haben es mit einem regelrechten Krieg um Talente zu tun", so SAP-Manager Mike Flannagan in einem Interview über maschinelles Lernen. "Sensoren mit Lastwagen, Zügen oder verbinden - das ist alles wichtig, aber es gibt einen noch einen anderen Bereich, in dem unsere Kunden vor Herausforderungen stehen, die nicht mit Hardware zu tun haben, sondern mit Menschen." Zu diesem Zweck sollen Concur für das Reise- und Spesenmanagement, SuccessFactors für Human Resources und Fieldglass für das Management von Zeitkräften "empowern", wobei weitere Details dazu auf der bevorstehenden Sapphire Now-Konferenz im Juni 2018 vorgestellt werden sollen.

Cyber-(Un-)Sicherheit - oder mit KI besser hacken

Hacker rüsten mit Open Source Frameworks auf

Wo Licht aber ist, ist oft auch Schatten, sagt das Sprichwort. Das gilt natürlich auch für die Künstliche Intelligenz. Doch keine Sorge: Um durchgeknallte Superintelligenzen oder autonome Killer-Libellen wie in Frank Schätzings "Schmetterlings"-Thriller. Es geht vielmehr um ganz schnöde "Black Hats", um finstere Hacker und Virenbastler also, die sich ihren Cyber-Angriffen in wachsendem Masse Künstlicher Intelligenz bedienen, wie das Security-Unternehmen Avast beobachtet hat. In ihrem Sicherheitsreport 2018 weisen die tschechischen IT-Sicherheitsspezialisten darauf hin, dass in naher Zukunft verstärkt eine Kombination aus neuen und traditionellen Sicherheitsbedrohungen auftreten wird, darunter auch erste Angriffe, die auf Künstlicher Intelligenz basieren.

Prognostiziert wird, dass sich 2018 Massenattacken, Erpressertrojaner, vermehrte Angriffe auf das Internet der Dinge, Krypto-Mining-Malware und Attacken auf Services, die auf der Blockchain-Technologie basieren, häufen werden. Der Sicherheitsreport berichtet ausserdem über zunehmend ausgefeiltere Supply-Chain-Attacken, gemeinsam mit der Zunahme von dateiloser Malware, dem Diebstahl persönlicher Daten und bereits bekannten mobilen Bedrohungen wie beispielsweise Banking-Trojaner.

„Die wachsende Anzahl von Open Source Frameworks für maschinelles Lernen, in Verbindung mit sinkenden Preisen für leistungsstarke Hardware, eröffnen Cyber-Kriminellen neue Möglichkeiten. Sie können jetzt auch maschinelle Lerntechnologien nutzen, um die ebenfalls auf selbstlernender Software basierenden Algorithmen der Sicherheitsfirmen zu überlisten“, warnt Ondrej Vlcek, CTO & EVP bei Avast. „Wir gehen davon aus, dass Internetkriminelle Künstliche Intelligenz so einsetzen werden, dass sie damit nicht nur Malware-Attacken, sondern auch ausgeklügelte Phishing-Kampagnen durchführen können.“

Counterstrike: Intelliegnte Honeypots locken Hacker in die Falle

Doch umgekehrt wird auch ein Schuh daraus. Denn mit KI-Einsatz kann man auch für mehr Cyber-Sicherheit sorgen. "Ein wichtiges Thema ist beispielsweise die Cybersicherheit: Mithilfe von KI-Instrumenten können Hacker-Attacken schneller und besser als solche identifiziert werden, unter bestimmten Umständen ist es auch möglich, sie vorherzusagen", sagt Wolfgang Thronicke, Principal Consultant und Mitglied der Scientific Community bei Atos.

So werden beispielsweise Honeypots - Fallen, in die Hacker tappen sollen, mit Künstlicher Intelligenz zu noch interessantere virtuelle Ködern für solche Angreifer. Solche Honeypots gibt es bereits für viele IT-Bereiche, für verschiedene Datenbanken, für Web-Anwendungen, für bestimmte IT-Services, für Industrie 4.0-Systeme, um einige Anwendungsfelder zu nennen. Honeypots sind schon heute sehr hilfreich, sie können aber, wie ein Artikel unserer Partnerplattform Security-Insider zeigt, mit Künstlicher Intelligenz erweitert werden. Ein Beispiel dafür ist die sogenannte Virtual Machine Behavioural Introspection (VMBI) Technik. Dabei wird eine virtuelle Maschine als Köder ausgelegt, um mögliche Angriffsversuche zu erfassen und auszuwerten. Hackern erscheint der virtuelle Köder als Teil des Unternehmensnetzwerks.

Die Künstliche Intelligenz kommt ins Spiel, wenn die Aktivitäten der Angreifer auf der virtuellen Maschine analysiert werden. Dazu werden die in dem Unternehmen üblichen Aktivitäten mit den festgestellten verglichen, um Anomalien zu ermitteln. Hier liegt somit der KI-Anteil auf der Analyse von Aktivitäten, wie es bei vielen KI-Anwendungen in der Security üblich ist. Interessant dabei ist die Kombination mit einer virtuellen Maschine als Honeypot.

KI-Zukunftsprojekte

Doch wie geht es weiter mit der Künstlichen Intelligenz? An was wird aktuell geforscht? Und was ist an technischen Weiterentwicklungen und Neuerungen schon in der Pipeline?

Maschinen können (doch) moralisch handeln

Maschinen können bald moralisches Verhalten von Menschen imitieren. Davon sind Wissenschaftler der Universität Osnabrück überzeugt. Anlasse ist das autonome Fahren, denn selbstfahrende Automobile sind die erste Generation intelligenter Roboter, die den alltäglichen Lebensraum mit dem Menschen teilen. Folglich ist es unabdingbar, Regeln für und Erwartungen an autonome Systeme zu erarbeiten, die definieren, wie sich diese in kritischen Situationen verhalten sollen.

Das Institut für Kognitionswissenschaft der Universität Osnabrück hat nun eine Studie in Frontiers in Behavioral Neuroscience veröffentlicht, die zeigt, dass menschlich-ethische Entscheidungen in Maschinen implementiert werden können und autonome Fahrzeuge bald moralische Dilemmata im Strassenverkehr bewältigen werden. Politisch wird die Debatte zur Modellierbarkeit moralischer Entscheidungen durch eine Initiative des Bundesministeriums für Transport und Digitale Infrastruktur (BMVI) begleitet, die dafür 20 ethische Prinzipien formuliert hat. Die Osnabrücker Studie liefert dazu nun erste empirische wissenschaftliche Daten.

“Um Regeln oder Empfehlungen definieren zu können sind zwei Schritte notwendig. Als Erstes muss man menschliche moralische Entscheidungen in kritischen Situationen analysieren und verstehen. Als zweiten Schritt muss man das menschliche Verhalten statistisch beschreiben, um Regeln ableiten zu können, die dann in Maschinen genutzt werden können“, erklärt Prof. Dr. Gordon Pipa, einer der leitenden Wissenschaftler der Studie.

Zur Realisierung beider Schritte nutzten die Autoren eine virtuelle Realität, mit der das Verhalten von Versuchspersonen in simulierten Verkehrssituationen beobachtet wird. Die Teilnehmer der Studie fuhren dazu an einem nebeligen Tag durch die Strassen eines typischen Vorortes. Im Verlauf der Experimente kam es dabei zu unvermeidlichen und unerwarteten Dilemma-Situationen, bei denen Menschen, Tiere oder Objekte als Hindernisse auf den Fahrspuren standen. Um den Hindernissen auf einer der beiden Spuren ausweichen zu können, war eine moralische Abwägung notwendig. Die beobachteten Entscheidungen wurden dann durch eine statistische Analyse ausgewertet und in Regeln übersetzt. Die Ergebnisse weisen darauf hin, dass im Rahmen dieser unvermeidbaren Unfälle moralisches Verhalten durch eine einfache Wertigkeit des Lebens erklärt werden kann, für jeden Menschen, jedes Tier und jedes Objekt.

Leon Sütfeld, der Hauptautor der Studie, erklärt dies so: „Das menschliche moralische Verhalten lässt sich durch den Vergleich von einer Wertigkeit des Lebens, das mit jedem Menschen, jedem Tier oder jedem Objekt assoziiert ist, erklären bzw. mit beachtlicher Präzision vorhersagen. Das zeigt, dass menschliche moralische Entscheidungen prinzipiell mit Regeln beschrieben werden können und dass diese Regeln als Konsequenz auch von Maschinen genutzt werden könnten.“

Grundsätzlich stehen die Erkenntnisse der Osnabrücker Forscher im Widerspruch zu dem achten Prinzip des BMVI-Berichtes (s.o.), das auf der Annahme gründet, moralische Entscheidungen seien nicht modellierbar Doch lässt sich dieser grundlegende Unterschied erklären? Algorithmen können entweder durch Regeln beschrieben werden oder durch statistische Modelle, die mehrere Faktoren miteinander in Bezug setzen. So sind Gesetze regelbasiert. Der Mensch und moderne Künstliche intelligente Systeme nutzen hingegen eher ein komplexes statistisches Abwägen. Dieses Abwägen erlaubt es dem Menschen und der modernen KI, auch neue Situationen zu bewerten, denen Mensch und KI bisher nicht ausgesetzt waren.

In der wissenschaftlichen Arbeit von Sütfeld wurde nun eine solche dem menschlichen Verhalten ähnliche Methodik zur Beschreibung der Daten genutzt. „Deshalb müssen die Regeln nicht abstrakt am Schreibtisch durch einen Menschen formuliert, sondern aus dem menschlichen Verhalten abgeleitet und gelernt werden. So stellt sich die Frage, ob man diese nun gelernten und konzeptualisierten Regeln nicht auch als moralischen Aspekt in Maschinen nutzen sollte“, argumantiert Forscher Sütfeld.

„Nun, da wir jetzt wissen, wie wir moralische Entscheidungen in die Maschinen implementieren können, bleiben uns trotzdem noch zwei moralische Dilemmata“, betont Prof. Dr. Peter König, der ebenfalls an der Studie mitwirkte. „Erstens müssen wir uns über den Einfluss von moralischen Werten auf die Richtlinien für maschinelles Verhalten entscheiden. Zweitens müssen wir uns überlegen, ob wir es wollen, dass Maschinen sich (nur) menschlich verhalten sollen.“

Zu ethischen Fragen der Künstlichen Intelligenz äussert sich auch Luciano Floridi in einem Interview mit WIRED. Floridi ist Professor an der Universität Oxford und berät auch grosse Digitalkonzerne wie IBM oder Google.

Ebenfalls lesenswert ist das Diskussionspapier "Künstliche Intelligenz: - Chancen und Risiken" der Stiftung für effektiven Altruismus. Das Papier setzt sich unter anderem mit der Frage auseinander, ob es so etwas wie ein künstliches Bewusstsein geben kann, und wie derartige "Maschinen" unter ethischen Gesichtspunkten zu behandeln wären. Unterstützt werden die Kernthesen des Papiers von namhaften Wissenschaftlern aus dem KI-Bereich und den Rechtswissenschaften.

Schneller "denken" mit dem Quantencomputer

Fotosammlungen oder Soziale Netzwerke sind Datensammlungen, in denen die Daten meistens nicht sortiert vorliegen. Die Suche nach einzelnen Elementen, also nach der Nadel im Daten-Heuhaufen, ist bei sehr grossen Datenmengen für klassische Computer extrem aufwändig. Wissenschaftler am Karlsruher Institut für Technologie haben nun den Grover-Algorithmus – ein Verfahren zum schnellen Finden eines Suchelements in unsortierten Datenbanken – quantenmechanisch implementiert und erfolgreich ausgeführt. Ihre Forschungsergebnisse veröffentlichten sie nun in den Physical Review Letters.

Ein universeller Quantencomputer ist zwar noch eine Zukunftsvision. Spezielle Quantensysteme, die versprechen, eine bestimmte Aufgabe schneller als ein klassischer Computer lösen, spielen in der Wissenschaft bereits jetzt eine grosse Rolle. Ein konventioneller Computer muss, um ein bestimmtes Element in unsortierten Daten sicher zu finden, im ungünstigsten Fall alle Suchelemente nacheinander durchlaufen. Ein Quantensystem mit implementiertem Grover-Suchalgorithmus verringert die Suchzeit, da es zeitgleich auf alle Zustände innerhalb einer sogenannten Superposition angewendet werden kann.

Forschergruppen um die Professoren Wolfgang Wernsdorfer und Mario Ruben am KIT ist nun gemeinsam mit Wissenschaftlern des Instituts Néel (Grenoble) genau dies gelungen: Die Wissenschaftler haben nun den Grover-Algorithmus auf einen molekularen Magneten angewandt und damit erfolgreich ein Quantensystem erschaffen, dessen Aufgabe das schnelle Auffinden von Suchelementen in unsortierten Daten ist. In der aktuellen Forschung haben sie die Machbarkeit einer schnellen Suche für eine kleine Datenbank von vier Elementen exemplarisch belegt. „Allerdings“, so Ruben „kann diese Methode in jeglichen Quantensystemen mit vielen, nicht-äquidistanten Energieniveaus implementiert werden, was den Weg hin zu einem universellen Quantensuchalgorithmus eröffnet“.

Im aktuellen Fall wurde der Grover-Algorithmus in einen molekularen Magneten implementiert, der mit speziell designten Mikrowellen in eine Superposition gebracht wurde – ein Quanteneffekt, bei dem sich ein Teilchen zugleich in verschiedenen Zuständen befinden kann. Nach der Ausführung der Quantenoperationen las ein Einzelmolekültransistor die Suchergebnisse aus. Eine Animation verdeutlicht diesen Vorgang.

Wolfgang Wernsdorfer, der am Physikalischen Institut und am Institut für Nanotechnologie des KIT forscht, betont, dass diese Manipulation von Quantenzuständen zwar bei sehr tiefen Temperaturen, aber unter ausschliesslicher Nutzung von elektrischen Feldern gelang. „Deshalb haben wir die Hoffnung, dass sich diese Technologie in aktuelle elektronische Geräte integrieren lässt“, so Wernsdorfer.

Der massgeschneiderte Molekül-Transistor wurde in Mario Rubens Gruppen am Institut für Nanotechnologie und am Institut für Anorganische Chemie des KIT synthetisiert. Er besitzt in der Mitte ein Terbium-Atom, das über ein ausgeprägtes magnetisches Moment, einen Spin, verfügt. Umgeben ist das Terbium von organischen Molekülen, die es abschirmen und somit gegen äussere Einflüsse robust machen.

Neue Fraunhofer-Studie identifiziert wichtige Forschungsfelder

Forschung ist zweifellos die Basis jeder neuen Technologie. Nicht minder entscheidend aber ist der Transfer von wissenschaftlichen Ergebnissen in konkrete Produkte, Prozesse und Dienstleistungen. So sind zum Beispiel Länder wie die USA, China, Südkorea oder Japan, was die Anzahl der Patentfamilien im Bereich maschinelles Lernen (Machine Learning) und Künstliche Intelligenz angeht, Deutschland (noch) weit voraus.

Dementsprechend wichtig sei es, nicht den Anschluss zu verlieren und sowohl in die Machine-Learning-Forschung zu investieren als auch gezielt den Transfer von der Wissenschaft in die Wirtschaft zu fördern. Das legt die Studie "Maschinelles Lernen – Kompetenzen, Anwendungen und Forschungsbedarf" des Fraunhofer-Instituts für Intelligente Analyse- und Informationssysteme (Sankt Augustin) sowie des Fraunhofer-Zentrums für Internationales Management und Wissensökonomie (Leipzig) nahe, die auf der CEBIT 2018 offiziell vorgestellt wird (Fraunhofer Stand Halle 27, Stand E78):

Zu fördern gelte es vor allem den Einsatz von Machine-Learning-Techniken in kleinen und mittelständischen Unternehmen. Auch seien Eigenentwicklungen anzuregen, um hinsichtlich des Rückstands bei den Patentanmeldungen im internationalen Vergleich aufzuschliessen.

Als Handlungsfelder für die Forschung haben identifiziert die Studie:

  • "Erklärbare KI" für bessere Transparenz und Verlässlichkeit ML-basierter Entscheidungsprozesse,
  • Maschinelles Lernen mit wenigen Daten,
  • "Informed ML" – Maschinelles Lernen mit zusätzlichem Wissen von Experten,
  • Verbesserung der Betriebs-, Cyber- und Datensicherheit sowie der Robustheit von ML-Systemen.

Diese Forschungsfelder bieten laut Fraunhofer-Studie das Potenzial, Wissen anwendungsorientiert auszubauen, völlig neue Anwendungen zu ermöglichen – von der Industrie 4.0 bis zum Gesundheitssektor – und die wirtschaftliche und gesellschaftliche Akzeptanz zu stärken.

Handlungsbedarf sieht man auch hinsichtlich der Verfügbarkeit von Daten. Gerade im internationalen Vergleich mangele es in Deutschland an allgemein zugänglichen, verwertbaren Daten. Um Anreize zu schaffen, entsprechende Daten zu generieren und auszutauschen, wird empfohlen, dass Urheber die Kontrolle und Souveränität über ihre Daten behalten. Modelle wie der International Data Space, in dem Unternehmen ihre Daten zum gegenseitigen Nutzen teilen und dabei stets die Kontrolle über die Verwendung ihre Daten behalten, seien in diesem Zusammenhang beispielhaft.

Frameworks und Plattformen (Auswahl)

Mit Watson in der IBM Cloud lassen sich sehr leistungsfähige KI-Funktionen in Unternehmensanwendungen integrieren und Daten in einer Cloud mit höchster Sicherheit speichern, „trainieren“ und verwalten. Einen Einstieg in die Watson-Welt können z.B. Chatbots sein, die das Kundenerlebnis optimieren. Chatbots sind eine wichtige Voraussetzung für die Interaktion von Benutzern mit einem Unternehmen. Sie sprechen dieselbe Sprache, können Fragen beantworten und bieten unmittelbare Unterstützung. Chatbots können Hindernisse für einen schnellen und effizienten Kundenkontakt beseitigen. Denn sie ergänzen als Schnittstelle für natürliche Sprache Ihre App, Ihre Website, Ihr mobiles Gerät, Ihre Messaging-App und Ihre sozialen Kanäle. Watson von IBM hilft bei der Erstellung von Chatbots, ohne dass man mit dem Coding bei Null anfangen muss.

https://www.ibm.com/watson/de-de/developer/

Microsoft AI Platform:

Cognitive Services: Diese Sammlung leistungsfähiger APIs gibt Ihren Apps die notwendigen Voraussetzungen für eine intelligente Interpretation der Umwelt. Auf der Basis von Bildanalyse, Spracherkennung und Erfassung relevanter Informationen können Ihre Apps auf eine natürliche Weise mit den Benutzen interagieren. Mit nur wenigen Codezeilen erstellen Sie schnell und einfach Apps, die selbständig lernen, sich anpassen und mit der Zeit besser werden, und die auf vielen Geräten und Plattformen funktionieren.

Bot-Plattform: Geben Sie Ihren Kunden an ihrem Standort einen natürlichen Gesprächspartner. Mit dem Microsoft Bot Framework können Sie leicht neue Benutzerinteraktionen generieren und beliebig skalieren. Nutzen Sie Kanäle wie Facebook Messenger, Cortana, Slack, Skype und jetzt auch Bing für die Bereitstellung.

Deep Learning: Das Microsoft Cognitive Toolkit ist ein kostenloses, benutzerfreundliches, Open-Source-Toolkit, das Deep-Learning-Modelle mit massiven Datenmengen trainiert. Azure nutzt einen der grössten KI-Supercomputer für das Training und die Auswertung Ihres Modells. Das extrem hohe Leistungsniveau liefern GPUs und FPGAs und ein nahezu beliebig nach oben skalierbares Deep-Learning-Framework, wie beispielsweise das Cognitive Toolkit, TensorFlow oder Caffe.

Daten- und Analysen-Plattform: Daten sind für den nützlichen Einsatz von KI unerlässlich. Microsoft bietet eine umfassende Datenplattform mit integrierten Analysetools für alle strukturierten und nicht strukturierten Daten. Damit Sie Ihre Daten sinnvoll zur Anwendung bringen können.

https://www.microsoft.com/de-de/ai/ai-platform

Mit Detectron hat Facebooks KI-Abteilung eine Software zur automatischen Objekterkennung unter einer Open-Source-Lizenz veröffentlicht. Detectron ist für Forschungszwecke gedacht. Die Software wurde in Python geschrieben und basiert auf dem Deep-Learning-Framework Caffe2 von Facebook, das ebenfalls unter einer Open-Source-Lizenz verfügbar ist. Detectron unterstützt von Haus aus eine Reihe Objekterkennungsalgorithmen. Mit der Veröffentlichung der Software unter einer Open-Source-Lizenz will Facebook Wissenschaftlern die Möglichkeit geben, die von dem KI-Team veröffentlichten Paper zur Objekterkennung verifizieren zu können. Ausserdem hofft der Konzern, so die Forschung in dem Bereich voranzutreiben. Der Quellcode von Detectron steht auf Github zur Ansicht und zum Download bereit.

https://github.com/facebookresearch/Detectron

TensorFlow ist eine plattformunabhängige Open-Source-Programmbibliothek für künstliche Intelligenz bzw. maschinelles Lernen im Umfeld von Sprache und Bildverarbeitungsaufgaben. In der Forschung und im Produktivbetrieb wird sie derzeit von verschiedenen Teams in kommerziellen Google-Produkten wie Spracherkennung, Gmail, Google Fotos und der Google Suche verwendet. So wird der Kartendienst Maps durch Analyse der von Street View aufgenommenen Fotos, die mit Hilfe einer auf TensorFlow basierenden KI analysiert werden, verbessert. TensorFlow wurde ursprünglich vom Google-Brain-Team für den Google-internen Bedarf entwickelt und später unter der Apache-2.0-Open-Source-Lizenz veröffentlicht. Ab der Version TensorFlow 1.5 wird zusätzlich TensorFlow Lite mit ausgeliefert. Dabei handelt es sich um eine schlanke Variante dieses Frameworks, die speziell für mobile Endgeräte konzipiert ist. Diese Lite-Variante ist nicht zum Training der Modelle gedacht, sondern lediglich zum Anwenden bereits trainierter Modelle.

https://www.tensorflow.org/

Caffe ist eine Programmbibliothek für Deep Learning. Sie wurde von Yangqing Jia während seiner Ph.D.-Zeit am Vision and Learning Center der University of California, Berkeley entwickelt.. Caffe hat zuerst die MATLAB-Implementierung von schnellen Convolutional Neural Networks (CNN) nach C und C++ portiert. Caffe enthält zahlreiche Algorithmen und Deep-Learning-Architekturen für die Klassifikation und Clusteranalyse von Bilddaten. CNN, R-CNN (Rekurrentes neuronales Netz), LSTM (Long short-term memory) und vollständig verbundene neuronale Netze werden unterstützt. Mit Caffe kann die Grafikprozessor-basierte Beschleunigung mit cuDNN von Nvidia genutzt werden[3], sodass 60 Millionen Bilder pro Tag prozessiert werden können. Als hauptsächliche Programmierschnittstelle sind Python (NumPy) und MATLAB vorgesehen. Yahoo hat Caffe in Apache Spark eingebunden (caffeonspark) um Deep Learning verteilt zu verwenden.

http://caffe.berkeleyvision.org/

Bei Torch handelt es sich um ein wissenschaftliches Computing-Framework mit breiter Unterstützung für maschinelle Lernalgorithmen, bei dem GPUs an erster Stelle stehen. Es ist einfach zu bedienen und effizient, dank einer einfachen und schnellen Skriptsprache, LuaJIT, und einer zugrunde liegenden C/CUDA-Implementierung. Es enthält folgende Kernfunktionen: ein leistungsstarkes N-dimensionales Array, viele Routinen zum Indizieren, Slicen, Transponieren, Schnittstelle zu C über, LuaJIT, lineare Algebra-Routinen, neuronales Netzwerk und energiebasierte Modelle, numerische Optimierungsroutinen, schnelle und effiziente GPU-Unterstützung, ist integrierbar mit Ports zu iOS und Android-Backends. Torch ist Open-Source. Sie können also auch mit dem Code auf dem GitHub Repo beginnen.

http://torch.ch

PaddlePaddle: PArallel Distributed Deep LEarning ist eine einfach zu bedienende, effiziente, flexible und skalierbare Deep Learning Plattform. Praktische Anwendungen, die sich mit PaddlePaddle erstellen lassen sind Computer-Vision (Verwendung eines Convolutional Neural Network (CNN) zur Bilderkennung und Objekterkennung), natürliches Sprachverständnis (Verwendung eines Recurrent Neural Network (RNN) für die Stimmungsanalyse), Empfehlungssysteme (Einsatz von Deep Learning auf Empfehlungssystemen, um Anwendern zu helfen, Interessen zu finden).

http://www.paddlepaddle.org/

Scikit-learn (ehemals scikits.learn) ist eine kostenlose Software-Bibliothek für die Programmiersprache Python. Sie bietet verschiedene Klassifikations-, Regressions- und Clustering-Algorithmen, darunter Support-Vektor-Maschinen, Randomforests, Gradient Boosting, k-means und DBSCAN, und ist so konzipiert, dass es mit den numerischen und wissenschaftlichen Python-Bibliotheken NumPy und SciPy zusammenarbeitet.

http://scikit-learn.org/stable/

Eine umfassende Übersicht über aktuelle AI Software für verschiedenste Anwendungen bietet https://www.capterra.com/artificial-intelligence-software/.

Dieser Beitrag stammt von unserem Partnerportal Inustry-of-Things.de

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45347570 / Industrie 4.0)