15
07 24 DeepDreams
Wie das menschliche Gehirn in der Lage ist, die permanent über den Sehnerv empfangenen visuellen Reize in Sekundenbruchteilen zu analysieren und zu klassifizieren, Objekte im Bild zu finden und zu separieren, sie mit gespeicherten Erinnerungsmustern abzugleichen und so schlussendlich mit nahezu hundertprozentiger Sicherheit zu erkennen, was es sieht – das ist nach wie vor ein unwahrscheinlich komplexer Vorgang, der sich technisch bisher noch kaum nachvollziehen lässt.
Doch ist man natürlich bestrebt, auch Computern das Sehen beizubringen, die Anwendungsmöglichkeiten wären mannigfaltig. Google arbeitet momentan an der Entwicklung neuronaler Netzwerke, sprich einer digitalen Simulation miteinander verschalteter Gehirnzellen, die in Ebenen gestaffelt arbeiten und beim Erkennen von Bildern inzwischen erstaunliche Ergebnisse erzielen. Diese Netzwerke wurden mit Millionen von Beispielbildern aller Art gefüttert, um ihnen ein "visuelles Gedächtnis" zu geben, sie "wissen" also wie z.B. eine Banane aussieht und können sie erkennen, egal in welchem Betrachtungswinkel sie sich im Bild präsentiert. Um zu testen, welche visuelle Vorstellung sich das Netzwerk während des Trainings von einem bestimmten Objekt gemacht hat, zeigen die Programmierer ihm ein Bild voller zufälliger bunter Pixel und behaupten, darauf sei z.B. eine Banane zu sehen. Das neuronale Netzwerk bearbeitet das Bild dann so lange, bis tatsächlich bananenartige Formen darin auftauchen. Bald bemerkten die Google-Entwickler, dass als Nebeneffekt ihrer Arbeit oft auch geradezu künstlerische Bilder entstehen, vor allem wenn man für die Bild-Bearbeitung nur bestimmte "Erkenntnis-Ebenen" zuschaltet, es also auf einen unvollständigen Erkenntnisprozess anlegt. So wie das menschliche Gehirn dazu neigt, in Wolken, Felsen oder Bäumen in freier Assoziation Figuren und Gesichter zu erkennen, entdecken dann auch die neuronalen Netzwerke in einem Wolkenhimmel bisweilen ganze Scharen merkwürdiger Hundefische, Autos und glänzende Pagoden. Diese Effekte verstärken sich, je mehr Berechnungsdurchläufe man einem Bild angedeihen lässt. So entstehen Szenarien voller augenreicher Kreaturen, die manchmal an Bilder von Hieronymus Bosch erinnern. Hier ein erläuternder Artikel: http://googleresearch.blogspot.de/2015/06/inceptionism-going-deeper-into-neural.html Und hier eine Bildergalerie: https://photos.google.com/share/AF1QipPX0SCl7OzWilt9LnuQliattX4OUCj_8EP65_cTVnBmS1jnYgsGQAieQUc1VQWdgQ?key=aVBxWjhwSzg2RjJWLWRuVFBBZEN1d205bUdEMnhB Für ein Unternehmen wie Google mit seiner Wohlfühlphilosophie ist es typisch, gern die bunten und faszinierenden Seiten einer neuen Technologie zu präsentieren. So wurden Teile der DeepDream-Codes der Welt kürzlich quelloffen zur Verfügung gestellt, und schon produziert eine ganze Community die verrücktesten und buntesten Ergebnisse damit: https://dreamdeeply.com/ Doch ein Nachdenken darüber, was es für uns und unser alltägliches Leben bedeuten wird, wenn Computer vielleicht schon bald effektiv in der Lage sein werden, jedwedes Bild zu "erkennen", kommt wie so oft zu kurz. Gesichtererkennung, wie Facebook und Co. sie bereits perfektioniert haben, wird sich gegen diese neuen Techniken antiquiert ausnehmen. Der Tag, an dem wir einer sehenden und korrekt interpretierenden künstlichen Intelligenz gegenüber stehen werden, rückt wieder ein wenig näher. Momentan allerdings brauchen die Computer natürlich noch einiges an Berechnungszeit, um mühsam nachzuahmen, was unser Gehirn ganz selbstverständlich in Bruchteilen jeder wachen Sekunde vollbringt.
|