Das kreative Rückgrat der Stadt
Düsseldorf ist eine Kunststadt. Das sieht man allerdings…
Über kurz oder lang werden schlaue Roboter und Computer Autos steuern, Chirurgen assistieren, Häuser bauen und Steuererklärungen prüfen. Dahinter steckt Künstliche Intelligenz, eine der spannendsten Entwicklungen der Digitalisierung und nach Ansicht zahlreicher Experten ein ganz wesentlicher Treiber für Wirtschaftswachstum.
Bilderkennungssysteme identifizieren im Auto Straßenschilder oder sortieren Urlaubsfotos
im Smartphone nach bestimmten Motiven, Sprachassistenten verstehen unsere gesprochenen
Fragen und erleichtern die Suche nach Informationen, Algorithmen begreifen, welche Musik
wir gern hören und schlagen uns passende Songs vor oder erkennen Krankheitssymptome
und ermitteln die richtigen Behandlungsmethoden: Allein schon diese wenigen Beispiele
geben einen Eindruck davon, in welchem Maße unser Alltag schon heute beherrscht wird von
Computerprogrammen, die der menschlichen Intelligenz so ähnlich sind, dass sie diese in
bestimmten Anwendungen ersetzen können. Die Rede ist von „Künstlicher Intelligenz“ (KI),
einem interdisziplinären Forschungsgebiet innerhalb der Computerwissenschaften, das je nach
Zielrichtung Lösungen aus Mathematik, Informatik, Sprach- und Bilderkennung sowie Robotik
verarbeitet.
Den Grundstein für das, was wir heute KI nennen, legte schon im Jahr 1936 Alan Turing.
Damals bewies der britische Mathematiker durch seine Theorien, dass eine Rechenmaschine – eine
sogenannte „Turingmaschine“ – in der Lage wäre, kognitive Prozesse auszuführen, sofern diese
sich in mehrere Einzelschritte zerlegen und durch einen Algorithmus darstellen lassen. 20 Jahre
später trafen sich Wissenschaftler am Dartmouth College im US-Bundesstaat New Hampshire
zu einer Konferenz, bei der sie die Ansicht äußerten, dass Aspekte des Lernens sowie andere
Merkmale der menschlichen Intelligenz von Maschinen simuliert werden können. Der
Programmierer John McCarthy schlug hierfür den Begriff „Künstliche Intelligenz“ vor. Während
der Konferenz wurde mit dem „Logic Theorist“, der es schaffte, mehrere Dutzend mathematische
Lehrsätze zu beweisen, auch gleich das erste KI-Programm der Welt geschrieben.
Als 1997 die KI-Schachmaschine „Deep Blue“ der Firma IBM den amtierenden
Schachweltmeister Garry Kasparov in einem Turnier bezwang, galt dies als historischer Erfolg
der Maschinen in einem Bereich, der bislang vom Menschen dominiert wurde. Kritiker gaben
jedoch zu bedenken, dass „Deep Blue“ nicht durch kognitive Intelligenz, sondern nur durch
das Berechnen aller denkbaren Züge gewonnen habe.
Ab dem Jahr 2011 ebneten gewaltige Technologiesprünge bei der Hard- und Software der KI
den Weg in unseren Alltag. Seitdem ermöglichen es leistungsstarke Prozessoren und
Grafikkarten in Computern, Smartphones und Tablets auch den normalen Verbrauchern, auf
KI-Programme zuzugreifen. Insbesondere Sprachassistenten erfreuen sich großer Beliebtheit:
Apples „Siri“ kam 2011 auf den Markt, 2014 stellte Microsoft die Software „Cortana“ vor und
Amazon präsentierte 2015 aus der Echo-Serie den Sprachdienst „Alexa“.
Von nachhaltiger Wirkung war außerdem das Computerprogramm „Watson“ – es trat 2011 in
Form eines animierten Bildschirmsymbols in einer US-amerikanischen TV-Quizshow an und
gewann gegen die menschlichen Mitspieler. Damit stellte „Watson“ unter Beweis, dass es die
natürliche Sprache versteht und schnell auf schwierige Fragen antworten kann.
Bis heute demonstrieren immer wieder neue Beispiele die Leistungsfähigkeit von KI. So lieferte
sich erst im Juni 2018 der „Project Debater“ von IBM mit zwei Debattiermeistern ein Rededuell
über komplexe Themen – und wenige Wochen zuvor demonstrierte Google auf einer
Konferenz, wie die KI „Duplex“ beim Friseur anruft und im Plauderton einen Termin vereinbart
– ohne dass die Dame am anderen Ende der Leitung merkte, dass sie mit einer Maschine
sprach.
Trotz jahrzehntelanger Forschung steht die Entwicklung der KI aber immer noch relativ am
Anfang. Damit sie in sensiblen Bereichen wie dem automatisierten Fahren oder der Medizin
eingesetzt werden kann, muss sie zuverlässiger und sicherer gegen Manipulationen werden.
KISysteme sollen zudem lernen, ihre Entscheidungen zu erklären, damit Menschen sie
nachvollziehen und die Denkweise der KI besser erforschen können. Zahlreiche Wissenschaftler
wie beispielsweise der Bosch-Stiftungsprofessor Matthias Hein an der Universität Tübingen
arbeiten an diesen Themen.
Hein forscht im Bereich statistisches Lernen mit Anwendungen in der Bildverarbeitung und der
Genetik. Dabei liegt sein Schwerpunkt auf der Entwicklung robuster und erklärbarer
Lernverfahren. Ein konkretes Beispiel ist die Entwicklung automatischer Entscheidungssysteme,
bei denen durch maschinelle Lernverfahren sichergestellt ist, dass sie keine diskriminierenden
Entscheidungen treffen können. Dies ist heute zum Beispiel der Fall, wenn das System einen
Kredit eher an einen Mann vergibt als an eine Frau. „Dieses Beispiel zeigt, dass maschinelle
Lernverfahren einen wichtigen gesellschaftlichen Beitrag leisten können“, so Hein.
Bosch und die Universität Tübingen sind übrigens Mitinitiatoren des im Dezember 2016 ins
Leben gerufenen Cyber Valley. Im Rahmen dieses Verbundes verstärken seitdem das Max-
Planck-Institut für Intelligente Systeme, das Land Baden-Württemberg, die Universitäten
Stuttgart und Tübingen sowie die Unternehmen Bosch, Daimler, Porsche, BMW, ZF
Friedrichshafen und Facebook die Forschung und Entwicklung auf dem Gebiet der KI. Als
Kernelemente des Cyber Valley wurden neue Forschungsgruppen, Lehrstühle und eine
International Max Planck Research School etabliert, welche die bestehenden Aktivitäten
miteinander verbinden. Erklärtes Ziel von Cyber Valley ist es, die Ergebnisse der
Grundlagenforschung rasch zur Anwendung zu bringen – etwa indem Forscher unterstützt
werden, ihre Erkenntnisse in Start-ups selbst zu kommerzialisieren. Vorbild ist die USamerikanische
Universität Stanford, die als Keimzelle des Silicon Valley respektive der digitalen
Revolution gilt.
Es besteht kein Zweifel daran, dass KI unseren Alltag, unser Leben, unsere Arbeit und die
Gesellschaft verändern wird. Allerdings scheiden sich bei kaum einem anderen Thema derart
die Geister. Unklare Vorstellungen und Definitionen davon, was sie kann und nicht kann und
ob sie eher Chance oder Bedrohung ist, tragen nach Ansicht des Bundesministeriums für
Wirtschaft und Energie ihren Teil zu dieser polarisierten Debatte bei. Wie eingangs schon
erwähnt, werden mit KI auf der einen Seite große Hoffnungen verbunden – beispielsweise ein
Straßenverkehr ohne Unfälle und Staus, die Entlastung des Menschen von gefährlichen und
monotonen Arbeiten oder eine verbesserte medizinische Diagnostik beispielsweise in der
Krebstherapie. Auf der anderen Seite warnen Skeptiker und Gegner mit düsteren
Zukunftsprognosen vor einer Herrschaft superintelligenter Roboter und Maschinen über den
Menschen.
Mehr denn je ist daher in der aktuellen Situation eine Verständigung darüber erforderlich, wie
die KI zukünftig in Deutschland sinnvoll für den Menschen genutzt werden soll. Die
Bundesregierung hat deshalb erst im November 2018 eine umfassende nationale Strategie
vorgelegt. Besagte Strategie verfolgt einen ganzheitlichen Ansatz und umfasst insgesamt
zwölf Handlungsfelder. Im Fokus stehen dabei folgende Ziele: Forschung in Deutschland und
Europa stärken, Transfer von Forschungsergebnissen in die Wirtschaft beschleunigen,
Verfügbarkeit von Fachkräften und Experten fördern, Strukturwandel in Unternehmen und am
Arbeitsmarkt gestalten, Rahmenbedingungen für die ethische Anwendung der KI schaffen,
europäische und internationale Zusammenarbeit zu KI-Themen vertiefen und gesellschaftliche
Dialoge zu den Chancen und Auswirkungen anregen.
Zweifelsohne ist die KI-Strategie der Bundesregierung löblich. Es gibt aber auch Kritiker, die
beklagen, dass sie viel zu spät kommt. „Die Regierung muss möglichst schnell die Grundlagen
dafür schaffen, dass Unternehmen die KI in der Praxis einsetzen und testen können“, sagt
Daniel Rebhorn, Geschäftsführer der auf die Entwicklung digitaler Geschäftsmodelle
spezialisierten diconium GmbH mit Sitz in Stuttgart. „Wenn KI dem Menschen dienen soll,
dann müssen wir es ihr auch erlauben“, führt Rebhorn weiter aus. Denn wenn sie
zuverlässiger als jeder Arzt Diagnosen stellen würde, dann nur deshalb, weil sie Millionen von
Daten abgleiche und dadurch die richtigen Schlüsse ziehen könne. Mit der neuen
Datenschutzgrundverordnung habe die EU allerdings die KI auf Diät gesetzt, indem sie Daten
zur Geheimsache erklärt. „Indes ziehen Big-Techs wie China dank liberaler Datengesetze an
uns vorbei“, ergänzt Rebhorns Geschäftsführer-Partner Andreas Schwend. Wohin das führen
könne, habe jüngst ein Ex-Google-Mitarbeiter mit der Gründung seines KI-Start-ups in China
gezeigt. Möglich sei dies gewesen, weil er staatlichen Zugang zu über 300 Millionen
Patientendaten bekommen habe, um sie für seine Forschung und ganz konkrete
Anwendungen zu nutzen. „Europa kann sich einen Dornröschenschlaf nicht leisten“, warnt
Schwend und fordert, dass Wirtschaft, Forschung und Regierung noch nachhaltiger
zusammenarbeiten müssten. „Und zwar nicht nur als Lippenbekenntnis.“
Algorithmen: Unter Algorithmus versteht man eine konkrete Handlungsvorschrift zur Lösung
eines Problems. Algorithmen sind als mathematische Gleichungen angelegt und spielen
insbesondere in der Informatik als Grundlage für Programmierungen eine große Rolle.
Mittlerweile begegnen uns Algorithmen täglich – in der Freizeit wie auch bei der Arbeit. Wir
finden sie in vielen technischen Geräten sowie in unserer elektronischen Kommunikation. So
zeigen uns Algorithmen im Navi den kürzesten Weg, schlagen uns als Computergegner im
Schach, kontrollieren unseren Satzbau in Office Word oder empfehlen uns einen passenden
Partner beim Online-Dating.
Deep Learning: Maschinen das Denken beizubringen – klingt wie Science-Fiction, ist aber
dank Deep Learning, zu Deutsch in etwa „tiefgehendes Lernen“, möglich. Dabei imitiert eine
neue Art von Algorithmen das menschliche Lernen, indem sie sich an der Funktionsweise des
menschlichen Gehirns orientiert. Deep Learning simuliert in der Maschine ein dicht
verwobenes Netz aus einfachen Nervenzellen, das wie sein natürliches Vorbild aus Erfahrung
lernt. Für die Erfahrung sorgt das Zuführen riesiger Datenmengen, wie zum Beispiel Bilder. In
der Folge gelingt den Maschinen das, was Menschen fast nebenher erledigen: Sie erkennen
Gesichter und verstehen Sprachen. Ob Cortana, Siri oder Skype – fast jeder nutzt heute
Software, die auf Deep Learning beruht.
Neuronale Netze: Die Neurowissenschaft bezeichnet eine Ansammlung miteinander
verbundener Nervenzellen als neuronales Netz. Jedes einzelne Netz verarbeitet Informationen
und dient dem Lernen und Erinnern. Darauf beruhend werden in der Informatik,
Informationstechnik und Robotik Künstliche Neuronale Netze (KNN) entwickelt. Das Ziel ist es,
die enormen Verarbeitungs- und Funktionsfähigkeiten von Gehirnen im Computer
nachzukonstruieren. Während Hunderte oder Tausende künstliche Neuronen in
übereinanderliegenden Schichten sitzen und über simulierte Leitungen verbunden sind, wird
die oberste, als Sensor fungierende Schicht mit Daten gefüttert – zum Beispiel mit Bildern
oder Geräuschen. Diese gibt die Informationen weiter und das Netzwerk sortiert sie. Die
kontinuierliche Datenzuführung und -verarbeitung seitens des Computers führt bei der
Maschine schließlich nach und nach zu einem Lernprozess (siehe auch Deep Learning).
Turing-Test: Bereits im Jahr 1950 vom britischen Mathematiker Alan Turing entwickelt, wird
mit dem Turing-Test geprüft, ob eine Maschine das Denkvermögen eines Menschen hat. Beim
Test chattet eine Versuchsperson mit einem Menschen sowie mit einem Computer und muss
anschließend entscheiden, welcher der Gesprächspartner Mensch und welcher Maschine
gewesen ist. Turing sah den Test für eine Maschine als bestanden an, wenn mindestens 30
Prozent der Versuchspersonen sie für einen Menschen hielten. Ob das eine Maschine bisher
geschafft hat, ist allerdings nach wie vor unter Forschern umstritten. Internetnutzer begegnen
einem von Turing abgeleiteten Test täglich im Netz: Zur Abwehr von Spam-Programmen
müssen sie auf vielen Seiten eine angezeigte Buchstaben- oder Zahlenkombination eingeben.
Damit beweisen die Nutzer, dass sie reale Menschen sind. Das Verfahren heißt CAPTCHA und
steht für „completely automated public Turing test to tell computers and humans apart“.