Logo von Technology Review

Suche
Abonnieren

Tägliche Top-News bei WhatsApp, Facebook Messenger, Telegram & Insta

preisvergleich_weiss

Recherche in 1.780.387 Produkten

Tom Simonite

Die neue Intelligenz

Die neue Intelligenz

Seit Jahren arbeiten Forscher weltweit an Computern, die nach dem Vorbild biologischer Gehirne aufgebaut sind. Jetzt müssen diese Chips zeigen, was sie wirklich können.

Stellen Sie sich eine Maschine vor, die diese Zeilen liest. Eine solche Maschine aus Metall, Kunststoff und Silizium braucht ungefähr 50 Watt elektrischer Leistung, während sie die Information in Nullen und Einsen verwandelt. Nun stellen sie sich einen Menschen bei der gleichen Aufgabe vor. Sein klebriger Klumpen aus Eiweiß, Salz und Wasser in seinem Schädel benötigt nur einen Bruchteil dieser Energie, um nicht nur das Muster als Buchstaben, Wörter und Sätze zu interpretieren, sondern gleichzeitig das im Radio gespielte Lied zu erkennen.

Der Vergleich macht die Kluft deutlich, die immer noch zwischen Mensch und Maschine liegt. Es gibt zwar Computer, die ein dem Menschen vergleichbares Textverständnis besitzen, doch sie sind riesig, energiehungrig und benötigen eine spezielle Programmierung.

Nun jedoch soll eine neue, mehr wie das menschliche Gehirn arbeitende Generation von Computerchips diese Kluft verkleinern. Fortschritte in den Neurowissenschaften und der Chiptechnologie ermöglichen Geräte, die – zumindest im kleinen Maßstab – Daten so verarbeiten wie das Gehirn eines Säugetiers. Solche „neuromorphen“ Chips könnten sich als fehlendes Puzzleteil für so manches vielversprechendes, aber unvollendetes Projekt der künstlichen Intelligenz erweisen – etwa autonom fahrende Autos oder Smartphones als kompetente Gesprächspartner.

„Moderne Computer stammen von Taschenrechnern ab und eignen sich vorwiegend als Zahlenfresser“, sagt Dharmendra Modha, der eine entsprechende Forschungsgruppe am Almaden Research Center von IBM in Kalifornien leitet. Er will Computerchips mit einer an das Säugetierhirn angelehnten Architektur entwerfen. Immerhin 100 Millionen Dollar stecken die Defense Advanced Research Projects Agency (Darpa) und das US-Verteidigungsministerium in das Projekt. Dessen Name ist Programm: „Synapse“ ist angelehnt an die Verbindungen zwischen den Nervenzellen, eines der wesentlichen Elemente menschlicher Signalverarbeitung.

Wer Modha besuchen will, muss nach San Jose in Kalifornien. Vom Stadtrand aus windet sich die Straße zu seinem Labor zwei Meilen eine Anhöhe hinauf. Der Weg ist mit Magnolien gesäumt, das Labor selbst liegt inmitten fast 1000 Hektar sanft geschwungener Hügel. Das Silicon Valley ist nah, aber nicht direkt vor der Haustür. Womöglich ist hier der ideale Ort, um die Grundfesten der Computer-Industrie zu erschüttern.

Alle heutigen Modelle, ob Smartphone oder Supercomputer, beruhen auf der sogenannten Von-Neumann-Architektur, benannt nach dem ungarischen Mathematiker John von Neumann. Ihre Grundlagen sind im Prinzip zwei Baugruppen: Zentraleinheit oder CPU und Arbeitsspeicher. Letzterer speichert die Daten sowie Instruktionen, wie sie zu manipulieren sind. Die CPU holt sich diese Instruktion aus dem Arbeitsspeicher zusammen mit den zu verarbeitenden Daten. Das Ergebnis schickt sie zurück in den Arbeitsspeicher, der Zyklus wiederholt sich. Die Prozesse laufen also linear ab.

Das Gehirn dagegen arbeitet parallel. Eintreffende Informationen zünden Salven elektrischer Erregung, die sich mittels Synapsen über Nervenzellen hinweg ausbreiten. Die Wörter dieses Absatzes erkennen Sie beispielsweise dank eines Musters elektrischer Aktivität, ausgelöst durch Signale aus Ihren Augen. Ein entscheidender Vorteil unserer neuralen „Hardware“ ist ihre Flexibilität: Neue Informationen bringen das System dazu, sich anzupassen. Es lernt. Im Computer-Jargon würde man von einem massiv-parallelen System sprechen, das sich selbst umprogrammiert.

Anzeige

„Gehirne haben sich in der realen Welt entwickelt“, sagt Dharmendra Modha. Um ihre Arbeitsweise in die Welt des Siliziums zu übertragen, hat IBM seine neuromorphen Chips entwickelt. Sie bestehen aus digitalen Schaltungen von jeweils rund 6000 Transistoren, die das Feuern eines Neurons und die synaptischen Verbindungen zu anderen Neuronen nachbilden. Die Silizium-Neuronen verbindet Modha untereinander zu einem gehirnähnlichen System. Das Prinzip für die Verschaltung lieferten ihm Studien der Hirnrinde: Sie besteht aus verschiedenen Arealen mit unterschiedlichen Funktionen wie zum Beispiel Spracherzeugung oder Bewegungssteuerung. Doch jedes dieser Areale besitzt dieselben Grundbausteine: Einheiten von 100 bis 250 Neuronen, die nach einheitlichen Prinzipien funktionieren.

(Tom Simonite)

Kommentieren

Anzeige
Anzeige