© iStock.com/microdon

Infopunkte Naturwissenschaft

raum&zeit-Ausgabe 222

30 Jahre Kalte Fusion

Im Jahr 1989 sorgte eine Meldung der University of Utah (USA) für weltweites Aufsehen. Die beiden Elektrochemiker Martin Fleischmann und Stanley Pons gaben in einer Pressemitteilung die Entdeckung einer neuen, bis dahin unbekannten Energiequelle bekannt. Sie hatten an einer Palladium-Elektrode im Verlauf einer elektrolytischen Reaktion eine unerklärliche Hitzeentwicklung beobachtet. Die Lösung aller Energieprobleme schien in greifbare Nähe gerückt. Schnell machte das Wort von der „kalten Kernfusion“ die Runde. Nach einem kurzen Schock-Schweigen der etablierten Wissenschaftler setzte eine massive Verleumdungskampagne gegen die beiden Entdecker der heute oft LENR (Low Energy Nuclear Reaction) genannten Form der Energiegewinnung ein. Kernfusion sei ja nur unter extrem hohen Temperaturen, wie sie im Innern von Sternen herrschen, möglich. Nur dann hätten die Kerne ausreichend Energie, um die sogenannte Couloumb-Barriere – die gegenseitige elektromagnetische Abstoßung von Atomen – zu überwinden. Da viele Universitätslabors die Resultate von Fleischmann/Pons nicht reproduzieren konnten, war schnell von Wissenschaftsbetrug die Rede. Das Energieministerium der USA sprach gar von „pathologischer Wissenschaft“. Aber die Botschaft war nun in der Welt. In hunderten Hobbykellern und Experimentierstuben wurde weltweit nach der unbekannten Energiequelle geforscht. Im Gegensatz zu milliardenschweren Forschungen an der heißen Fusion mit einem hochspezialisierten technischen Equipment brauchte LENR ein paar hundert Dollar und hartnäckigen Forschergeist. Kommt dann noch eine Portion ingenieurtechnische Begabung hinzu, so bleibt der Erfolg nicht aus. Leuchtendes Beispiel ist der Italiener Andrea Rossi, der heute bereits seine auf LENR basierenden Anlagen der Marke „E-Cat“ (Energy Catalyzer) für die Wärmeerzeugung verkauft, allerdings zunächst nur für industrielle Anwendungen. Die Leistungsziffern (eingesetzte zu erzeugter Energie) liegen bei bis zu 8000 Prozent. Möglich ist auch die Erzeugung elektrischer Energie, wodurch ein vollständig autonomes Arbeiten der Reaktoren in greifbare Nähe rückt – ganz ohne radioaktive Strahlenbelastung und bei nur minimalem Ressourcenverbrauch: Ein paar Gramm Nickelpulver, etwas Lithium und Wasserstoff reichen für die ganzjährige Energieversorgung eines Einfamilienhauses. Hier liegt ein schier unermessliches Potenzial für saubere Energieproduktion. (DS)

Quelle: http://ecatworld.org

Leben wir in einer virtuellen Welt

Die Idee, dass unsere Realität nicht wirklich ist, ist uralt. Schon der griechische Philosoph Plato stellte mit seinem berühmten Höhlengleichnis die Realitätsfrage, und erst recht fernöstlichen Konzepten wie „Maya“ und „Nirwana“ zufolge ist unsere Wirklichkeit bloßer Schein. Der US-amerikanische Science-Fiction-Autor Daniel Galouye veröffentlichte 1964 seinen Roman „Simulacron-3“, in dem der Protagonist Douglas Hall allmählich herausfindet, dass die Welt eine Computersimulation ist. Der Stoff wurde mehrfach verfilmt, unter anderen von Rainer Werner Fassbinder („Welt am Draht“, 1973) und den Wachowski-Brüdern („Die Matrix“, 1999). In der Philosophie wird die sogenannte Simulationshypothese seit dem Erscheinen des Essays „Are you living in a computer simulation“ (Philosophical Quarterly, 2003) des schwedischen Philosophen Nick Bostron durchaus ernsthaft diskutiert und findet immer mehr Anhänger. Den Boden vorbereitet haben natürlich auch die Quantenphysik und die Möglichkeit, das Universum rein durch Information zu beschreiben („Digitale Philosophie“). Auch die rasante Entwicklung der virtuellen 3D-Welten, die bald nicht mehr von der Realität unterschieden werden können, hat dazu beigetragen, die ontologische Frage nach dem Grund der Wirklichkeit zu stellen. Während Bostron sich derzeit noch nicht festlegt, hat der digitale Pionier und E-Auto-Unternehmer Elon Musk (Tesla) die Wahrscheinlichkeit, dass wir NICHT in einer Simulation leben, auf eins zu mehreren Milliarden beziffert. Doch weder Musk noch Bostron noch sonst irgendwer können derzeit auch nur grob skizzieren, wie Bewusstsein durch Algorithmen simuliert werden könnte. Das Problem liegt wohl darin, dass Bewusstsein nicht definiert, geschweige denn quantifiziert und messbar gemacht werden kann. Die Wissenschaft hat bis heute keinen Schimmer, wie Bewusstsein im Gehirn überhaupt entsteht. Die Frage nach einer technischen Nachbildung stellt sich daher derzeit erst gar nicht. (DS)

Quantencomputer in Deutschland

Der amerikanische Technologiekonzern IBM und die deutsche Fraunhofer Gesellschaft haben eine neue Partnerschaft zur Entwicklung eines Quantencomputers angekündigt. IBM wird dafür erstmals sein Modell „Q System One” nach Deutschland bringen. Ziel sei der Aufbau einer Forschungsgemeinschaft mit Fähigkeiten, Erkenntnissen und Ausbildungsmöglichkeiten im Umgang mit der Quanteninformatik, teilten die Partner am 10. September 2019 mit. Die Bundesregierung will über die nächsten zwei Jahre 650 Millionen Euro in die Erforschung von Quantencomputern investieren. Beim Q System One handelt es sich um einen Quantencomputer mit 20 Qubits (den Recheneinheiten der Quanteninformatorik), was zunächst mal nicht sehr viel erscheint. Doch selbst mit nur 20 Qubits lassen sich bereits über eine Million Quantenzustände verschränken beziehungsweise superponieren und gleichzeitig (parallel) zu Rechenzwecken nutzen. Im Gegensatz zu einem gewöhnlichen Rechenhirn, das seriell funktioniert, bringt die parallele Arbeitsweise des Quantencomputers enorme Geschwindigkeitsvorteile. Da die Qubits von Q System One auf supraleitenden Quantengattern basieren, handelt es sich um eine digitale Variante. Experten sprechen hier vom universellen Quantencomputer. Im Vergleich mit analogen Quantenrechnern, die nach dem Prinzip des „Quanten-Annealing“ arbeiten, zeichnen sich die digitalen durch ein breiteres Anwendungsspektrum aus. Die Quanten-Annealer der Firma D-Wave beispielsweise eignen sich besonders gut für Minimierungsaufgaben und Kombinationsprobleme (s. „Evolution der Quantenbits“ in raum&zeit 212). Einen Krypto-Code zu knacken oder extrem große Datenbanken zu durchsuchen bleibt jedoch den digitalen bzw. universellen Quantenrechnern vorbehalten. Das vermutlich wichtigste Einsatzgebiet eines Quantenhirns ist aber wohl die künstliche Intelligenz. Das Joint Venture zwischen IBM und der Fraunhofer-Gesellschaft ist bereits die zweite Kooperation zwischen einer deutschen Organisation und einem US-amerikanischen Unternehmen in Sachen Quantencomputer. Im Oktober letzten Jahres gaben der Internetkonzern Google und das Forschungszentrum Jülich bekannt, bei der Entwicklung des Quantensystems „OpenSuperQ“ zusammenzuarbeiten. Er soll 2021 vorgestellt werden. (DS)

Quelle: www.heise.de

zur Startseite