https://www.tagesschau.de/wissen/techno ... s-100.html
Rechenzentren verbrauchen immer mehr Energie. Ein Start-up aus Stuttgart will Abhilfe schaffen und hat einen Chip entwickelt, der mit Licht statt mit Strom rechnet - und deutlich weniger Energie verbraucht. (...)
Q.ANT hat jetzt mit dem Aufbau einer Fertigungsanlage für photonische Computerchips begonnen. Die rechnen nicht mit Strom, sondern mit Licht, sind viel schneller und verbrauchen viel weniger Energie als herkömmliche Prozessoren, verspricht der Hersteller. Bisher galt die Technologie als fehleranfälliger als die strombetriebenen Chips. Dieses Problem will das Stuttgarter Unternehmen nun gelöst haben. Schon in zwei Jahren sollen die ersten photonischen Chips auf den Markt kommen. (...)
Energie sparen mit Licht
Analoge Rechentechnik zur Berechnung einer analogen Welt. Das ist nachvollziehbar. Aber warum brauchen die photonischen Chips so viel weniger Energie als herkömmliche Rechner? Ein Grund: Sie müssen nicht gekühlt werden. Michael Förtsch erklärt es so: "Strom muss immer über den Chip geschoben werden, das heißt, ich lege eine Spannung an und arbeite gegen einen Widerstand. Licht gleitet einfach über den Chip. Das muss ich nicht anschieben, das braucht weniger Energie.“
Und weil das Licht nicht gegen einen Widerstand arbeiten muss, entstehe auch keine Hitze, also keine Abwärme. So bräuchten die Chips von Q.ANT keine Kühlung. Und das spare eine Menge Energie. (...)
Probleme beim analogen Rechnen
Paralleles Rechnen, das schnelle Schalten mit Licht, geringer Energieverbrauch: Auch Engjell Bebeti, der am Max-Planck-Institut für Mikrostrukturphysik in Halle zum Thema Photonik promoviert, schätzt dieses Potenzial der photonischen Chips als hoch ein. Er weiß aber auch, dass Forschende schon seit vielen Jahren an der analogen Rechentechnik mit Licht arbeiten und bisher nicht zu befriedigenden Ergebnissen gekommen sind.
Das liegt vor allem an einer gewissen Ungenauigkeit beim analogen Rechnen, sagt Bebeti: "Beim analogen Rechnen im Gegensatz zum digitalen - also mit Nullen und Einsen - gibt es immer Messfehler. Und diese summieren sich auf, je mehr Komponenten man ins System eingibt. Und jetzt ist eben die Frage: Hat man am Ende noch das Ergebnis, was man haben möchte, oder sind zu viele Fehler drin, die dann zu einem falschen Ergebnis führen?“
Es geht um die Skalierbarkeit. Bei einzelnen Chips sind kleine Fehler bei vielen Aufgaben zu vernachlässigen. Aber funktioniert die Technik auch im großen Maßstab, wenn Tausende dieser Prozessoren in Rechenzentren zusammenarbeiten sollen? (...)

Links:
https://de.wikipedia.org/wiki/Photonik
https://qant.com/de/photonisches-computing/ (Bildquelle für Grafik oben)
https://qant.com/de/pressemitteilung/bl ... -ki-chips/
https://qant.com/de/pressemitteilung/q- ... wendungen/
https://www.quantentechnologien.de/fors ... quant.html
https://www.quantentechnologien.de/fors ... jekte.html