Viele sind genervt vom ständigen Gerede über künstliche Intelligenz und maschinelles Lernen. Ein Hype sei das, übertrieben oder gar irrelevant. Zwei aktuelle Beispiele zeigen, wie falsch diese Annahme ist.

„Systeme maschinellen Lernens werden besser, je grösser sie werden, wenn sie auf schnellerer und stärker spezialisierter Hardware laufen, Zugang zu mehr Daten bekommen und verbesserte Algorithmen enthalten. All diese Verbesserungen finden jetzt statt, deshalb entwickelt sich maschinelles Lernen rasant.“

Andrew Mcafee und Erik Brynjolfsson, „Machine, Plattform, Crowd“ (2017)

Jedes Mal, wenn ich eine Kolumne schreibe, in der es um künstliche Intelligenz (KI) oder besser: um maschinelles Lernen geht, melden sich anschliessend Leute zu Wort, die das alles für einen Hype halten. Alles völlig übertrieben, etwas, das vorübergehen wird wie Laserdiscs oder Tamagotchis.

Oft verweisen sie auf ihre eigene langjährige Erfahrung mit Computern und erklären, dass das damals in den Siebzigern alles ja auch schon nicht geklappt hat. Andere erfinden Vergleiche, zum Beispiel: Das Gerede von der KI sei „wie der Atomhype der Fünfziger- und Sechzigerjahre“, schliesslich hätten wir bis heute keine Atomautos.

Ein gern vorgebrachtes Argument ist auch, dass sich Moores Gesetz, die permanente Verdoppelung der Leistungsfähigkeit von Computer- und Speicherchips seit den Sechzigerjahren, seinem Ende zuneigt. Die Ära des exponentiellen Wachstums in diesem Bereich ist vermutlich in der Tat vorbei. Ich habe hier neulich schon einmal behauptet, dass die exponentielle Entwicklung trotzdem weitergehen wird.

Faktor 300’000

Jetzt hat jemand nachgerechnet, was ich nur behaupten konnte: Wie schnell KI-Systeme flotter werden nämlich. Konkret geht es um die Menge an Rechenleistung, mit der lernende Systeme arbeiten, gemessen in Petaflop pro Sekunde. Ein Petaflop sind 10 hoch 15 Operationen, etwa in einem künstlichen neuronalen Netz.

Die Informatiker Dario Amodei und Danny Hernandez haben nun ermittelt, wie viele Petaflop/s in einer Reihe grosser KI-Projekte seit 2012 berechnet wurden. Die beiden arbeiten für OpenAI, ein Non-Profit-Forschungsunternehmen, das unter anderem der bekanntlich KI-besorgte Elon Musk aus der Taufe gehoben hat.

Das Ergebnis der Studie ist für die Zeit von 2012 bis 2017 eine Steigerung um den Faktor 300’000. Oder, wenn man es als Funktion ausdrücken möchte: Die Masszahl für die eingesetzte Rechenleistung verdoppelte sich in diesem Zeitraum im Schnitt alle dreieinhalb Monate. Dagegen ist Moore’s Law eine lahme Ente.

Alle dreieinhalb Monate verdoppelt

Das hat unter anderem damit zu tun, dass sehr viel Geld in diese Technologie gesteckt wird und deshalb mehr Kapazität zum Einsatz kommen kann – aber nicht nur. Hernandez und Amodei nennen mehrere Methoden, die KI-Forscher in den vergangenen Jahren entwickelt haben, um mehr Flop pro Sekunde aus der Hardware herauszuholen – und die Tatsache, dass es mittlerweile speziell für neuronale Netze entwickelte Chips gibt, die für das massive parallele Rechnen optimiert sind, das diese Systeme brauchen. Google selbst baut sogenannte Tensor Processing Units, TPUs, die vielerorts mittlerweile die Grafikkarten (GPUs) ersetzen, die jahrelang Supercomputer zu immer neuen Höchstleistungen angetrieben haben.

Noch mal kurz und verständlich formuliert: Die neuen KI-Systeme verdoppeln im Moment im Schnitt alle dreieinhalb Monate ihr Tempo. Und zwar nicht nur, weil so viel Geld in sie gesteckt wird, sondern auch, weil ihre Schöpfer ständig neue Tricks erfinden und anwenden.

Der automatische Gurkenbeurteiler

Nun könnte man, und auch das passiert in KI-Diskussionen immer wieder, einwenden, dass das trotzdem alles Spielereien sind: „Sich selbst Go beizubringen, ist nicht so wahnsinnig schwer“, schrieb kürzlich jemand ins SPIEGEL-ONLINE-Forum. Natürlich ist das erstens Quatsch – kein Mensch hat sich je selbst beibringen können, besser zu spielen als Googles AlphaGo Zero, und das wird auch nie mehr passieren.

Zweitens ist es ein unsinniges Argument. „Die leistungsfähigsten maschinell lernenden Systeme von heute, die so unterschiedliche Aufgaben erfüllen wie Energiemanagement in Rechenzentren, Spracherkennung, Bilderkennung und automatische Übersetzung, ähneln einander in bemerkenswerter Weise“, schreiben die MIT-Ökonomen Andrew Mcafee und Erik Brynjolfsson in ihrem eingangs zitierten Buch.

Die beiden erzählen darin unter anderem die lustige Geschichte eines japanischen Ingenieurs, der die Basistechnologie von Googles erster Go-Maschine AlphaGo benutzte, um seiner Mutter lästige Arbeit zu ersparen. Seine Eltern betreiben eine Gurkenfarm, und die Sortierung der Erträge in neun Qualitätsstufen fiel ausschliesslich der Mutter des Ingenieurs zu. Also baute ihr Sohn mithilfe schon 2016 frei verfügbarer KI-Methoden einen automatischen Gurkenbeurteiler.

Pillen aus dem Rechner

Auch das mag mancher noch albern oder irrelevant finden. Also noch ein aktuelleres und in meinen Augen wesentlich schlagkräftigeres Beispiel: Vor einigen Wochen erschien in „Nature“ eine meiner Wahrnehmung nach von der Laienöffentlichkeit vollständig übersehene Studie. Ich persönlich habe nur mitbekommen, dass sie erschienen ist, weil ich mit einem der Autoren in einem völlig anderen Forschungsprojekt zusammenarbeiten darf.

Marwin Segler, Mike Preuss und Mark Waller berichten darin, wie sie gemeinsam ein AlphaGo durchaus ähnliches System konstruiert haben, das in einem chemischen Verfahren namens Retrosynthese Ergebnisse erzielt, die Fachleute nicht von menschengemachten Lösungen unterscheiden können.

Retrosynthese ist keine theoretische Fingerübung. Es geht darin darum, Wege zu finden, wie man neuartige Moleküle aus kommerziell oder anderweitig verfügbaren Bausteinen zusammensetzen kann. Ihr Erfinder Elias Corey bekam für die Entwicklung der Retrosynthese 1990 den Nobelpreis für Chemie. Es handelt sich um ein mühseliges, aber ungemein nützliches Verfahren. Man benutzt es zum Beispiel, um neue Medikamente zu entwickeln.

Das KI-System, das solche Molekülbaupläne entwerfen kann, ist noch nicht perfekt. Es produziert aber schon jetzt Resultate, die Fachleute für organische Chemie in Doppelblindtests nicht von aus der Literatur bekannten Lösungen unterscheiden können.

Maschinen würden bald „als wertvolle Assistenten akzeptiert werden“, schreiben die Autoren, bei einem Verfahren „das eine zentrale Rolle dabei spielt, die drängendsten Probleme der Menschheit in Landwirtschaft, Medizin und Materialwissenschaft zu lösen“.

Um es anders zu formulieren: Viele von uns werden in naher Zukunft vermutlich Medikamente schlucken, deren Bauplan eine Maschine entworfen hat. Das ist dann doch ein bisschen mehr als Go und Gurkensortieren.

Source: Christian Stöcker

 

Geschrieben von Learning Evolution.com

The basis of my professional, polyvalent career is mainly characterized by the following qualifications: - 20 years of experience in Sales & Marketing - 20 years of experience in the field of ICT and in particular, Learning Development, Knowledge Management (KM), Enterprise Content Management (ECM), Customer Relationship Management (CRM) and Search Engine Optimization (SEO) - 20 years of experience in the field of human Resources Management (5 - 25 persons - recruitment, leading, training and motivation of employees) - 20 years of experience as a Project Manager in the field of ICT, chemical and industrial plant design and architecture. - 10 years of experience in 2D / 3D CAD planning - 10 years of experience in the field of Biological and Energy-Efficient Construction - 5 years of experience as a Member of the Board of two companies, with whom I've worked

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden /  Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden /  Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.