Weitere Blogs von Eduard Heindl

Innovationsblog neue Ideen | Some Science my research | Energiespeicher Bedeutung und Zukunft | Energy Age the big picture (engl.)

Samstag, 28. Dezember 2024

Dr. Walter Rüegg

Dr. Walter Rüegg

Das vollständige Energiegespräch mit Dr.Walter Rüegg auf YouTube

1. Radioaktivität: Grundlagen und natürliche Vorkommen

Dr. Walter Rüegg ist promovierter Kernphysiker und war u. a. an der ETH Zürich sowie bei der ABB tätig. In seinem Gespräch mit Prof. Dr. Eduard Heindl erläutert er eingangs die Grundbegriffe der Radioaktivität und betont, dass sämtliche Materie natürliche Zerfallsprozesse aufweist. Die wichtigsten Strahlungsarten sind:

  • Alphastrahlen (schwere, positiv geladene Teilchen, reichen nur wenige Zellen tief und sind in der Regel nur gefährlich, wenn man sie einatmet oder verschluckt),
  • Betastrahlen (Elektronen oder Positronen, die etwas weiter in Materie eindringen können),
  • Gammastrahlen (hochenergetische Photonen, die materiell „durch alles hindurchfliegen“ und nur selten Treffer landen, dann aber einen langen Ionisationsweg im Gewebe hinterlassen).

Obwohl man Radioaktivität nicht direkt fühlen kann, ist sie physikalisch sehr leicht messbar, weil sie Atome ionisiert und so Messinstrumente einfach reagieren können. Die Natur hat hingegen für den Menschen kein eigenes „Strahlungssinnesorgan“ vorgesehen, weil natürliche Strahlung in typischen Umgebungen selten ein unmittelbares Überlebensproblem darstellt.

Natürliche Strahlenquellen

  • Kalium-40 im menschlichen Körper: Jeder Mensch hat rund 10.000 radioaktive Zerfälle pro Sekunde in sich, vor allem durch das Isotop Kalium-40, das sich bevorzugt in den Muskeln befindet.
  • Gesteine und Radon: Manche Gesteine wie Granit enthalten mehr Uran oder Thorium. Zerfallsreihen führen oft zum Edelgas Radon, das in Kellerbereichen konzentriert auftreten kann. Die Bewertung der gesundheitlichen Gefahr durch Radon ist jedoch komplex, zumal Studien oft durch Faktoren wie Rauchen oder unklare Messzeiträume verzerrt werden.
  • Kosmische Strahlung: In großer Höhe (z. B. in Flugzeugen) herrscht deutlich mehr Strahlung als am Boden. Piloten und Flugbegleiter sind hier einer höheren Dosis ausgesetzt. Statistisch zeigt sich jedoch keine auffällige Zunahme an Erkrankungen, was darauf hindeutet, dass diese Dosismengen biologisch gut kompensiert werden.

2. Biologische Wirkmechanismen: Zellschäden und Reparatur

Radioaktive Strahlung kann Zellen schädigen, indem sie Atome und Moleküle ionisiert oder gar zerschlägt. Allerdings ist der menschliche Körper daran gewöhnt, permanent eine hohe Zahl von DNA-Schäden zu reparieren – vor allem hervorgerufen durch Sauerstoff-Stoffwechsel und freie Radikale. Jede Zelle besitzt ausgefeilte Mechanismen, die Schäden entweder reparieren oder die Zelle in den programmierten Zelltod schicken (Apoptose), falls die Fehler zu gravierend sind.

Krebsrisiko und Mutationen
Langfristig ist eine wesentliche Sorge, dass Strahlung – neben vielen anderen Schadfaktoren wie Rauchen, Chemikalien, Feinstaub etc. – das Auftreten von Mutationen begünstigen kann. Allerdings braucht es meist viele verschiedene Mutationsschritte und etliche Jahrzehnte, bis eine Zelle tatsächlich entartet (Krebs). Der Körper besitzt zudem ein starkes Immunsystem, das viele „krebsverdächtige“ Zellen frühzeitig eliminiert.

Keine absolute Nullgrenze
Ob und inwiefern es für Strahlenschäden eine Schwellendosis gibt, ist umstritten. Das gängige Modell (LNT, Linear No Threshold) geht davon aus, dass selbst kleinste Dosen noch einen linearen Schaden verursachen. Demgegenüber steht das Konzept der Hormesis, das annimmt, sehr geringe Dosen könnten sogar stimulierend auf Reparaturmechanismen wirken. Als Indiz für Letzteres werden Studien zu Radon-Heilbädern oder zum Beispiel in Taiwan versehentlich mit Kobalt-60 verseuchter Baustahl angeführt, wo bei niedriger Dosis tendenziell weniger Krebsfälle beobachtet wurden. Eindeutige Beweise sind jedoch in der menschlichen Epidemiologie schwer zu erbringen, da viele Faktoren (Rauchen, Ernährung, Genetik, Umwelt) hineinspielen.


3. Natürliche vs. künstliche Strahlung: Missverständnisse und Grenzwerte

Strenge Regulierung künstlicher Quellen
Ein wesentlicher Diskussionspunkt ist, dass die Gesetzgebung weltweit künstliche Strahlung sehr viel strenger reguliert, während man die teils sehr hohe natürliche Hintergrundstrahlung (aus Gestein, Radon, kosmischen Quellen) faktisch nicht verbieten kann. Auch die Strahlenwerte in der Umgebung von Kernkraftwerken sind im Normalbetrieb so gering, dass sie im natürlichen „Rauschen“ oft nicht einmal eindeutig nachweisbar sind.

Grenzwerte und Einheiten

  • Becquerel (Bq): Anzahl der Zerfälle pro Sekunde in einer Probe.
  • Sievert (Sv): Maß für die biologische Wirkung ionisierender Strahlung. Schon 5 Sievert in kurzer Zeit gelten als tödlich. Millisievert (mSv) oder Mikrosievert (µSv) sind bei den meisten Alltagsbelastungen üblich.
  • Vergleiche: Die Natur liefert jedem Menschen pro Jahr einige Millisievert. Eine Flugreise führt zu zusätzlichen Zehntelmillisievert. Gerade in Kurorten mit radonhaltigem Thermalwasser sind die Messwerte oft höher als anderswo – dennoch gelten sie als gesundheitsfördernd, was den Verdacht auf eine potenzielle Hormesis nährt.

4. Kernenergie, Abfälle und Mythen

Abgebrannte Brennelemente und Endlager
Ein zentrales Thema sind die Radioisotope, die in Kernreaktoren entstehen. Kurze Halbwertszeiten sind für die Umwelt nur kurzfristig problematisch, da sie relativ rasch zerfallen. Cesium-137 oder Strontium-90 mit Halbwertszeiten von rund 30 Jahren sind besonders kritisch, weil diese Zeitspanne menschlichen Lebenslängen nahekommt und sie sich im Körper anreichern können. Die oft gefürchteten langlebigen Stoffe wie Plutonium haben hingegen eine sehr lange Halbwertszeit, sind jedoch meist schwer wasserlöslich und werden vom Körper nur selten aufgenommen.
Nach einigen hundert Jahren zerfallen die meisten kurzlebigen Isotope erheblich, sodass das langfristige Risiko sich vor allem auf schwerbewegliche Alphastrahler beschränkt. Konzepte für Endlager orientieren sich u. a. an geologischen „Naturreaktoren“ wie in Oklo (Gabun), wo sich Uranlagerstätten vor 1,8 Milliarden Jahren von selbst für sehr lange Zeit räumlich stabilisiert haben.

Reaktorunfälle und Strahlung

  • Tschernobyl: Dr. Rüegg besuchte selbst die Sperrzone und stellte fest, dass ein Großteil des Gebiets heute wieder bewohnbar wäre; lediglich einzelne „Hotspots“ und lokale Brennstoffsplitter sind hoch kontaminiert.
  • Fukushima: Die radiologische Belastung ist aus Sicht vieler Experten im Vergleich zu beispielsweise Feinstaubbelastungen in Großstädten recht gering. Die größten Schäden in Fukushima entstanden vor allem durch das Erdbeben und den Tsunami sowie durch vorsorgliche (oft überzogene) Evakuierungsmaßnahmen.

Nuklearwaffen
Obwohl Atomwaffen eine schreckliche Zerstörung anrichten, haben sich die modernen Bombenkonzepte stark gewandelt. „Saubere“ Wasserstoffbomben hinterlassen weit weniger strahlenden Fallout als die frühen Kernwaffentests. Global betrachtet haben die rund 500 atmosphärischen Tests der Vergangenheit die natürliche Strahlungsbelastung nur minimal angehoben. Die sofortige tödliche Wirkung einer Explosion resultiert vor allem aus Druckwelle und Hitzestrahlung.

Vergleich mit anderen Risiken
Immer wieder betont Dr. Rüegg, dass Feinstaub weltweit eine deutlich höhere Gesundheitsgefahr darstellt als die zusätzliche Strahlung aus zivilen oder militärischen Nuklearanwendungen. Auch Rauchen, falsche Ernährung oder Verkehrsunfälle wirken sich statistisch massiv auf die Lebenserwartung aus, während ein normal betriebener Kernreaktor sich in einem Bereich abspielt, der weit unterhalb anderer Alltagsrisiken rangiert.

Kernenergies Zukunft
Die Schweiz erzeugt schon heute einen Großteil ihres Stroms CO₂-arm aus Wasserkraft und Kernkraft. Aktuell diskutiert man über den Bau kleiner modularer Reaktoren („Small Modular Reactors“), die unter anderem durch natürliche Konvektion weniger aufwendige Sicherheitssysteme brauchen. Angesichts steigender Material- und Kupferbedarfe für erneuerbare Anlagen könnte auf lange Sicht die hohe Energiedichte der Kernenergie wieder attraktiver werden.
In Deutschland wurden hingegen aus politischen und gesellschaftlichen Gründen sämtliche Kernkraftwerke stillgelegt und zum Teil bereits zurückgebaut. Aus technischer Sicht wäre es durchaus sinnvoll gewesen, die Anlagen einige Jahrzehnte im gesicherten Zustand stehen zu lassen, bevor man sie zerlegt, da die Strahlung im abgeschalteten Reaktorkern von selbst deutlich abnimmt.


5. Psychologie der Angst und gesellschaftliche Debatten

German Angst und kollektives Gedächtnis
Dr. Rüegg und Prof. Heindl diskutieren, warum gerade in Deutschland die Ängste vor der Kernkraft besonders ausgeprägt sind. Mögliche Erklärungen liegen in den traumatischen Erfahrungen zweier Weltkriege, wirtschaftlicher Krisen und Bombardierungen. Zudem sehen die Gesprächspartner eine starke Rolle von NGOs und Politik, die unter dem Schlagwort „German Angst“ gezielt auf unsichtbare Bedrohungen wie Strahlung setzen, weil sich damit intensive Emotionen wecken lassen.

Diskrepanz zwischen realen und gefühlten Risiken
Obwohl strenge Grenzwerte und umfangreiche Überwachung dazu führen, dass die effektiv gemessenen Dosen im Umfeld von Kernkraftwerken minimal sind, haftet der Radioaktivität ein Mythos des „absolut Gefährlichen“ an. In der gesellschaftlichen Debatte wird oft übersehen, dass andere Schadstoffe (Feinstaub, Chemikalien im Bergbau, Pestizide) global betrachtet enorm viel Leid und Todesfälle verursachen. Gleichzeitig können wir uns ein Leben ohne moderne Technologien kaum noch vorstellen.

Fazit
Das Gespräch zwischen Prof. Dr. Eduard Heindl und Dr. Walter Rüegg verdeutlicht die Komplexität des Themas Radioaktivität:

  • Einerseits ist sie ein allgegenwärtiges, natürliches Phänomen, das der menschliche Körper dank hochentwickelter Reparaturmechanismen meist gut kompensiert.
  • Andererseits führt vor allem die Assoziation mit Atomwaffen und Kernschmelzen zu starker, teils irrationaler Furcht.
  • Die biologische und epidemiologische Forschung liefert Hinweise, dass niedrige Strahlungsdosen in manchen Fällen durchaus harmlos oder sogar positiv sein könnten (Hormesis).
  • Im Vergleich mit Umweltgefahren wie Feinstaub, Rauchen oder falscher Ernährung fällt die zusätzliche Belastung durch Kernenergie und selbst militärische Tests wesentlich geringer aus, als oft wahrgenommen.

Nicht zuletzt ist deshalb ein nüchterner Blick auf alle Energieformen – inklusive ihrer Abfälle und Materialketten – sinnvoll, um realistische, faire und langfristig tragfähige Entscheidungen über unsere Energiezukunft zu treffen.

Lesetipp:
Dr. Walter Rüegg, "Zeitalter der Ängste: Aber fürchten wir uns vor dem Richtigen?"

Die vollständige Liste aller Energiegespräche finden Sie hier: https://energiespeicher.blogspot.com/p/energiegesprache-mit-eduard-heindl.html

Sonntag, 22. Dezember 2024

Prof. Dr. Stephanie Fiedler im Energiegespräch

Prof. Dr. Stephanie Fiedler im Energiegespräch über Aerosole

Das vollständige Gespräch mit Frau Prof. Stephanie Fiedler bei YouTube.

1. Einleitung und Hintergründe
In diesem Gespräch treffen wir auf Professor Dr. Stefanie Fiedler, eine Meteorologin mit beeindruckender Laufbahn: PhD in Leeds (Großbritannien), Stationen am Max-Planck-Institut (MPI) für Meteorologie in Hamburg und seit 2023 Leiterin der Abteilung Maritime Meteorologie am GEOMAR – Helmholtz-Zentrum für Ozeanforschung. Zudem ist sie seit November 2024 Kodirektorin am Institut für Umweltphysik der Universität Heidelberg. Das Gespräch dreht sich in weiten Teilen um Aerosole in der Atmosphäre, ihre verschiedenen Quellen und ihre Rolle im Klimasystem. Ferner geht es um die Wechselwirkung zwischen Land, Meer, Wetter und Klima – insbesondere im Hinblick auf Staubemissionen aus Wüsten.

Ein wichtiger Aspekt ist dabei, wie Aerosole und Klimaschutzmaßnahmen (z. B. Schwefelreduktion in Schiffsabgasen) zusammenhängen und welche Auswirkungen sie auf regionale und globale Skalen haben. Den roten Faden bildet die Frage, was die Forschung an Bord eines Forschungsschiffs im tropischen Atlantik an neuen Erkenntnissen über Aerosole und Klima bringen kann.


2. Was sind Aerosole und warum sind sie so wichtig?
Aerosole sind feinste Teilchen in der Luft, die entweder natürlich (z. B. Wüstenstaub, Seesalz, Pollen, Vulkanausbrüche) oder anthropogen (z. B. Rußpartikel aus Verbrennungsmotoren, Schwefeldioxid aus Kraftwerken) entstehen. Oft sind sie unsichtbar, können aber unter bestimmten Bedingungen als Dunst, Nebel oder Feinstaub erkennbar sein.

  • Vielfältige Zusammensetzung
    Von mineralischen Partikeln (z. B. Quarzstaub) über Seesalz bis zu Ruß oder Pollen: Aerosole variieren stark in ihrer Größe und chemischen Struktur. Manche bilden sich aus gasförmigen Vorläuferstoffen erst in der Luft (z. B. Schwefeldioxid, das zu Sulfatpartikeln reagiert).

  • Klimatische Wirkung
    Aerosole reflektieren oder absorbieren kurzwellige Sonnenstrahlung. Feine Sulfatpartikel streuen beispielsweise einfallendes Licht und kühlen die bodennahe Atmosphäre. Rußpartikel hingegen absorbieren Strahlung und können bestimmte Luftschichten aufheizen. Insgesamt führen Aerosole – vor allem anthropogene Feinstäube – tendenziell zu einer Abkühlung und „maskieren“ somit regional betrachtet Teile der treibhausgasbedingten Erwärmung.

  • Einfluss auf Wolkenbildung
    Wolkentropfen benötigen Kondensationskeime, also Aerosolpartikel, an denen sich Wasser anlagert. Eine höhere Partikelzahl kann zu mehr, aber kleineren Tröpfchen führen; das erhöht die Wolkenhelligkeit (Albedo) und verstärkt die reflektierte Strahlungsleistung.

  • Gesundheitsaspekt
    Feinstaub ist eine ernste Belastung für die Atemwege und das Herz-Kreislauf-System. Sowohl in Großstädten als auch in ländlichen Regionen (z. B. Holzverbrennung) kann die Luftqualität stark abnehmen.


3. Wüstenstaub als Düngemittel und Klimafaktor
Ein Kernaspekt des Gesprächs sind Wüstenstaub-Ereignisse, insbesondere aus der Sahara:

  • Transport über Ozeane
    Wüstenstaub kann dank stabiler Luftströmungen („Saharan Air Layer“) über tausende Kilometer verfrachtet werden – etwa von Afrika bis nach Südamerika. Charakteristisch sind dabei größere Staubausbrüche im Frühjahr, die man z. B. als rötlichen Belag auf Autos in Südeuropa bemerkt.

  • Düngereffekt und Wechselwirkung mit marinen Ökosystemen
    Staubpartikel enthalten Mineralien, die im Ozean als Nährstoffe fungieren. Dadurch können sie Algenwachstum (Planktonblüten) fördern, was wiederum den Kohlenstoffkreislauf beeinflusst. Manche Regionen sind „eisenarm“, sodass Staub mit Eisenanteilen ein wichtiger Trigger für verstärkten Pflanzenwuchs ist.

  • Unklare Zukunft
    Wie sich Wüstenstaub-Emissionen bei fortschreitendem Klimawandel verändern, ist wissenschaftlich bislang nicht abschließend geklärt. Klimamodelle mit grobem Gitter (z. B. 100 km Auflösung) erfassen mesoskalige Phänomene wie Wüstenstürme nicht detailgenau. Ob Dürren und sich verändernde Vegetationszonen zu mehr oder weniger Staubtransport führen, bleibt Gegenstand intensiver Forschung.


4. Forschung auf hoher See: Die bevorstehende Expedition
Professor Fiedler und ihr Team planen eine ausgedehnte Schiffsexpedition im tropischen Atlantik (Januar bis März), um die Dynamik und Zusammensetzung von Aerosolen zu untersuchen.

  • Ziele und Routen

    1. Start in Brasilien, dann Querung der tropischen Konvergenzzone (ITCZ), wo Nord- und Südpassate zusammenströmen und häufig Niederschläge auftreten.
    2. Entlang der Westafrika-Küste bis hoch zu den Kapverdischen Inseln. Dort findet ein Teamwechsel statt, ehe die Reise weiter in eine aufquellende Ozeanregion nahe der Küste Westafrikas führt.
  • Methoden
    An Bord kommen verschiedene Messinstrumente zum Einsatz:

    • Partikelsammler: zur Bestimmung von Größe, Form und chemischer Zusammensetzung der Aerosole (z. B. anhand von Klebefolien oder Filtern).
    • Fernerkundung: Lidar- oder Ceilometer-Systeme, die Laserpulse aussenden und aus dem Rückstreusignal die vertikale Struktur der Staubschichten ableiten.
    • Ballons (Radiosonden): klassisch meteorologische Datenerfassung (Temperatur, Feuchte, Wind) bis in größere Höhen, gleichzeitig Validierung der Fernerkundungsdaten.
  • Warum so aufwendig?
    Über Satelliten erhält man zwar globale Bilder, doch Wolken verdecken oft die Aerosole darunter. Außerdem müssen aus den reinen Strahlungsmessungen erst mithilfe von Modellannahmen Rückschlüsse auf Partikelkonzentration, -art und -höhe gezogen werden. Die direkte, boden- oder schiffsgestützte Messung in Kombination mit Ballon- und Fernerkundungsdaten liefert somit „Ground Truth“ – unverzichtbar für die Weiterentwicklung von Klimamodellen und Wettervorhersagen.


5. Klimawandel, Modelle und Ausblick
Die Gesprächspartner erörtern abschließend, wie sich die Forschungsergebnisse in das große Ganze des Klimawandels und der Energieversorgung einfügen.

  • Kurzlebige Klimafaktoren und Maskierung der Erwärmung
    Anthropogene Aerosole wirken zwar kühlend, sind aber gesundheitsschädlich und gelten als „vorübergehender“ Effekt: Der Ausstoß dieser Partikel sinkt in vielen Regionen (z. B. China), weil saubere Luft angestrebt wird. Man rechnet damit, dass dieser „Schirm“ künftig dünner wird, sodass die eigentliche, CO₂-getriebene Erwärmung noch deutlicher sichtbar wird.

  • Klimamodelle und Unsicherheiten
    Viele Prozesse (z. B. Wolkenmikrophysik, Rückkopplungen in kleinräumigen Staubstürmen) sind in globalen Klimasimulationen nicht genügend aufgelöst. Neuere Ansätze mit künstlicher Intelligenz (KI) können helfen, Lücken zu schließen oder Berechnungen zu beschleunigen. Dennoch benötigt man weiterhin präzise Beobachtungen, um die Parameter in den Modellen realistisch zu halten.

  • Erneuerbare Energien und Dunkelflauten
    Neben ihren Forschungen an Aerosolen und Klima beschäftigt sich Dr. Fiedler auch mit Fragen zu Dunkelflauten (langen Phasen ohne Wind und Sonne), die für die Energieversorgung zentrale Herausforderungen darstellen. Solche Ereignisse erfordern Speicherung und Netzausbau – und sind meteorologisch gesehen keine spektakulären Extremwetterereignisse, aber entscheidend für ein stabiles Energiesystem der Zukunft.

  • Zukünftige Forschung
    Ob Staubtransport, Ozeanströmungen, Atmosphäre-Ozean-Interaktionen oder klimarelevante Prozesse in verschiedenen Schichten: Das Zusammenspiel ist komplex. Interdisziplinäre Expeditionen und Modellierungen sind Schlüssel, um verlässliche Szenarien für das 21. Jahrhundert zu entwickeln.


Fazit
Das Gespräch verdeutlicht eindrucksvoll, wie vielschichtig die Erforschung der Atmosphäre ist – mit Aerosolen als einem zentralen Puzzleteil, das lokale Luftqualität, Wolkenbildung, Ozeandüngung und letztlich das globale Klima prägt. Professor Dr. Stefanie Fiedlers anstehende Schiffsmission in den tropischen Atlantik ist ein Beispiel dafür, wie aufwendige Feldkampagnen und modernste Messtechnik helfen, offene Fragen zu klären. Die Daten sollen sowohl das Detailverständnis von Staub- und Partikeldynamiken verbessern als auch langfristig in Klimamodelle einfließen, damit künftige Projektionen präziser und verlässlicher werden.

Ob es um die globale Düngung des Amazonasgebiets durch Sahara-Staub, regionale Klimaeffekte durch anthropogene Sulfatpartikel oder die Herausforderungen eines energiewendedominierten Stromnetzes geht: Forschung wie die von Stefanie Fiedler trägt dazu bei, die Zusammenhänge besser zu verstehen – und damit die Basis für fundierte Klimapolitik und nachhaltige Energieversorgung zu legen.

Die vollständige Liste aller Energiegespräche finden Sie hier: https://energiespeicher.blogspot.com/p/energiegesprache-mit-eduard-heindl.html



Samstag, 14. Dezember 2024

Prof. Dr. Dr. Manfred Spitzer

Gespräch mit Prof. Dr. Dr. Manfred Spitzer

Zusammenfassung des Gesprächs am 4. Dezember 2024

Das Vollständige Gespräch mit Manfred Spitzer auf YouTube

 1. Einführung: Künstliche Intelligenz, Hirnforschung und Persönlichkeiten

Im Gespräch zwischen Prof. Eduard Heindl und Prof. Manfred Spitzer werden zentrale Themen rund um künstliche Intelligenz (KI), Hirnforschung, Bildung und gesellschaftliche Veränderungen diskutiert. Prof. Manfred Spitzer ist Neurowissenschaftler, Psychiater und seit 1998 ärztlicher Direktor der Psychiatrischen Universitätsklinik Ulm. Er ist durch zahlreiche Publikationen bekannt, u. a. „Digitale Demenz“ oder sein aktuelles Buch über KI. Spitzer hat an der Harvard-Universität gelehrt und beschäftigt sich mit Fragen, wie das Gehirn Informationen verarbeitet, wie Lernen funktioniert und wie neuronale Netze höhergeistige Leistungen generieren.
Die beiden Gesprächspartner werfen einen weiten Blick auf die aktuellen Entwicklungen: Von den theoretischen Grundlagen der Hirnforschung über die Bedeutung moderner KI-Systeme bis hin zu ganz praktischen Anwendungen etwa in Medizin, Bildung oder bei der Bekämpfung des Klimawandels.

2. Hirnforschung und neuronale Netze: Das Gehirn verstehen
Spitzer schildert seine akademische Biografie: Er startete in der Medizin mit dem Plan, Chirurg zu werden, entwickelte dann aber ein tieferes Interesse an Psychologie und Philosophie. Daraus ergab sich der Weg in die Psychiatrie und Hirnforschung. In der frühen Phase seines Schaffens standen theoretische Überlegungen zu Wahn, Halluzination und Begriffsbildung im Vordergrund. Bald darauf lernte er neuronale Netzwerke und deren Bedeutung kennen. Diese bieten erstmals ein theoretisches Werkzeug, um zu verstehen, wie Nervenzellen komplexe geistige Leistungen hervorbringen.
Heute weiß man, dass Halluzinationen und Wahnphänomene durch bestimmte neuronale Muster erklärbar sind. Die Forschung kann mit Mausmodellen Stimmenhören analysieren oder verschiedene Aspekte von Wahrnehmungsstörungen trennen. Neuronale Netze erlauben ein tieferes Verständnis kognitiver Prozesse, indem sie zeigen, wie parallele, hochvernetzte Informationsverarbeitung funktioniert. Die Erkenntnis: Das Gehirn nutzt langsame, aber hochgradig vernetzte Strukturen, um in Millisekunden komplexe Entscheidungen zu treffen. Diese Lern- und Verarbeitungsmechanismen liefern Vorbilder für die KI.

3. Künstliche Intelligenz als Schlüsselwerkzeug für globale Herausforderungen
Eine Kernthese lautet: Viele der heutigen Großprobleme sind ohne KI kaum lösbar. In der Medizin etwa können KI-Modelle Hautkrebs oder andere Krankheiten besser diagnostizieren, wenn sie mit ausreichend diverser Datenbasis trainiert werden. Auch in der Klimaforschung ist KI entscheidend: Sie hilft dabei, aus Satellitenbildern riesige Baumpflanzaktionen in der Sahelzone zu überwachen und den Erfolg zu kontrollieren. Ohne automatisierte Auswertung wäre es unmöglich, Millionen neu gepflanzte Bäume individuell zu betrachten.
Ebenso ist KI in der meteorologischen Vorhersage, der Proteinfaltung, der Batterieforschung oder der Erdbebenprognose ein unverzichtbares Instrument. Komplexe Probleme wie Wasserstoffgewinnung aus dem Erdmantel, die Bekämpfung von Hungersnöten (durch verbesserte Wetter- und Erntevorhersagen) oder die Entwicklung neuer Medikamente und Materialien profitieren massiv von KI. Spitzer betont, dass KI ein Katalysator für Effizienzgewinne ist. Sie ermöglicht es, mit gleichem Ressourcenaufwand mehr Menschen besser zu versorgen oder Umweltprobleme schneller anzugehen.

4. Bildung, Digitalisierung und kulturelle Aspekte
Ein kritischer Punkt ist der Einsatz von Computern in der Schule. Spitzer verweist auf Studien, die zeigen, dass Digitalisierung im Klassenzimmer nicht automatisch zu besserem Lernen führt. Im Gegenteil: Häufig schneiden Schüler, die stark auf digitale Medien zurückgreifen, schlechter ab. Das Schlüsselwort lautet: Lehrkraft. Lehrerinnen und Lehrer, die im direkten Austausch mit wenigen Schülern Wissen vermitteln, erzielen bessere Lernergebnisse als alle digitalen Hilfsmittel. Länder wie Schweden oder Neuseeland haben nach negativen Erfahrungen Computer wieder weitgehend aus den Klassenzimmern entfernt.
Während KI in vielen Bereichen ein Gewinn ist, darf man nicht erwarten, dass sie menschliche Vermittlungspersonen in der Bildung ersetzt. Auch ethische und kulturelle Unterschiede spielen eine Rolle: Sprachen und Werte sind in KI-Modellen tief verankert. Jede Kultur möchte ihre eigene KI entwickeln, um nicht einseitig von westlichen oder anderen Wertesystemen beeinflusst zu werden. So entstehen globale und regionale Sprachmodelle, die als Werkzeuge zur Kulturvergleichsforschung dienen können.

5. Verantwortung, Regulierung und Ausblick
Ein zentraler Diskussionspunkt ist die Verantwortung: KI-Systeme treffen Entscheidungen, können aber keine Verantwortung übernehmen. Dieser bleibt stets menschlich. Das betrifft Autonomes Fahren ebenso wie medizinische Diagnosen oder militärische Anwendungen. Gerade im Militärbereich ergeben sich Dilemmata: Vollautonome Waffen wären effizienter, aber wer haftet für Fehlentscheidungen?
Spitzer plädiert für Regulierung und Achtsamkeit. Europa ist dabei Vorreiter, weil es erste Vorschriften für KI erlässt. Während die USA und China andere Wege gehen, könnte Europa mittels wertebasierter Regulierung einen Mittelweg finden, der KI nutzbar macht, ohne die Verantwortung aus der Hand zu geben.
Insgesamt ist Spitzer optimistisch: KI wird helfen, globale Probleme zu bewältigen, Krankheiten schneller zu diagnostizieren, bessere Materialien zu entwickeln, die Bildung zu verbessern (etwa bei der Analyse des Lernens selbst) und langfristig sogar Krisen zu vermeiden. Der Schlüssel liegt in bewusstem Einsatz, kluger Regulierung und der Bereitschaft, die Werkzeuge sinnvoll zu nutzen. Das Ziel ist, nicht Angst, sondern Verstehen in den Vordergrund zu stellen. So kann KI zu einem Motor für Wohlstand, Gesundheit und Stabilität werden – wenn wir verantwortungsvoll mit ihr umgehen.

Die vollständige Liste aller Energiegespräche finden Sie hier: https://energiespeicher.blogspot.com/p/energiegesprache-mit-eduard-heindl.html

Samstag, 7. Dezember 2024

Prof. Wolfgang Braun

Das Gespräch mit Wolfgang Braun auf YouTube in voller Länge

 1. Frühe Prägung und Weg an die Hochschule Furtwangen

Wolfgang Braun beginnt seine Laufbahn mit einer Ausbildung zum Nachrichtenelektroniker und erhält die Möglichkeit, an der Hochschule Furtwangen zu studieren. In dieser Zeit trifft er auf ein Bildungssystem, das größtenteils auf konventionelle Wissensvermittlung setzt, jedoch wenig auf Begeisterung oder individuelles Talent eingeht. Braun erlebt die Ausbildung als eher von Angst und Leistungsdruck geprägt. Dennoch nutzt er diese Phase, um „lernen zu lernen“ und entwickelt ein hohes Durchhaltevermögen. Seine jugendliche Leidenschaft für den Leistungssport – er war in der württembergischen Auswahl in der Nordischen Kombination – lehrt ihn zusätzlich Disziplin, Zielstrebigkeit und den Umgang mit Rückschlägen.
In Furtwangen erwirbt er zudem erste technische Fertigkeiten, baut eigene Schaltungen, programmiert unter engen Ressourcen und erkennt, dass ihm das Ingenieurdenken in Fleisch und Blut übergeht. Gleichzeitig arbeitet er an seiner persönlichen Weiterentwicklung, entdeckt Methoden des Zeit- und Selbstmanagements (etwa nach der „Löhnmethode“) und beginnt, über reine Technik hinauszudenken. Der Kontakt mit Professoren, Gastdozenten und neuen Denkansätzen in Bereichen wie Parapsychologie oder Traumforschung öffnet seinen Horizont. Er lernt, dass effektives Lernen, Projektarbeit und Neugier zentrale Bausteine für künftigen Erfolg sein können.

2. Aufbruch in die USA und prägende Erfahrungen am MIT
Ein Fulbright-Stipendium führt Braun in die USA. Dort studiert er am MIT, lernt andere Kulturen, Denkweisen und vor allem ein völlig anderes Bildungsklima kennen: weg von hierarchischer Stoffvermittlung hin zu einer Kultur der Selbstentfaltung, der kritischen Diskussion und des gegenseitigen Befruchtens mit Ideen. Am MIT begegnet er führenden Köpfen aus der Informatik, künstlichen Intelligenz, Systemtheorie und Robotik.
Diese Zeit ist für ihn ein prägender Schritt, denn er erfährt, wie Innovation entsteht, wenn man Menschen Freiräume, Ressourcen und intellektuelle Herausforderungen bietet. Das amerikanische System fördert Querdenker, nutzt interdisziplinäre Teams und ist offen für ungewöhnliche Lösungsansätze. Braun lernt hier nicht nur technische Fähigkeiten, sondern auch, wie wichtig kulturelle Offenheit, Teamarbeit und konsequente Umsetzung sind. Die Zeit in den USA legt den Grundstein für seine spätere Karriere: Sie vermittelt ihm ein Verständnis davon, wie Führung, Management und Technologietransfer in globalen Unternehmen funktionieren könnten – wenn man Mut zu Neuem hat.

3. Karriere in der IT-Branche: Von HP über DEC bis zur debis/Daimler-Welt
Nach dem Studium steigt Braun bei Hewlett-Packard (HP) ein. Dort erlebt er ein unternehmerisches Klima, in dem Teamleistung über individuelle Eitelkeiten gestellt wird. HP fördert aktiv die Mitarbeiterentwicklung, setzt auf horizontale Vernetzung, Mentoring und daran geknüpfte finanzielle Anreize. Braun merkt schnell: Wenn man Mitarbeiter fördert und ihre Karriere voranbringt, kommt das gesamte Team und letztlich das Unternehmen voran.
Diese Erfahrungen prägen ihn für spätere Stationen, etwa bei Digital Equipment (DEC) und schließlich bei Daimler. Bei der Gründung des debis Systemhauses (Daimler-Benz InterServices) findet er sich in einer gänzlich anderen Unternehmenskultur wieder. Das Ziel, 50% Umsatz von außerhalb des Konzerns zu generieren, führt dazu, dass Braun M&A-Prozesse forciert, externe Firmen einkauft und komplexe Integrationsprojekte bewältigen muss. So sammelt er Know-how im Bereich globaler Unternehmensentwicklung, Change Management und strategischen Verkaufsgesprächen.
Diese Zeit konfrontiert ihn auch mit Widerständen: deutsche Konzerne sind schwerfälliger, hierarchischer, weniger offen für Kritik und Veränderungen als das dynamische Silicon Valley. Dennoch kann er durch beharrliches Vorgehen, interne Netzwerke, Visionen und viel Risikobereitschaft erfolgreiche Strategien einführen. Er entwickelt beim debis Systemhaus leistungsfähige Prozesse, schafft Outsourcing- und Beratungsmodelle und zeigt, dass inkrementelle Innovation nicht reicht – manchmal braucht es radikale, mutige Schritte.

4. Innovation, Krisenmanagement und Corporate University bei Daimler
Braun widmet sich bei Daimler weiteren Großprojekten: Er unterstützt die Transformation des Konzerns, treibt globale Strategien voran, setzt auf offene Standards und versucht, Daimler im internationalen Wettbewerb neu zu positionieren.
Eine besondere Herausforderung ist das Krisenmanagement rund um die A-Klasse und den sogenannten Elchtest. Braun erkennt hier, dass technische Exzellenz allein nicht genügt; Kommunikation, glaubwürdiger Auftritt vor der Öffentlichkeit und schnelles Umdenken sind ebenso wichtig. Ein Einsatz von ESP als Serienausstattung und clevere Schachzüge im Umgang mit Wettbewerbern wie Volkswagen helfen, das Vertrauen der Kunden zurückzugewinnen.
Zudem baut Braun bei Daimler eine Corporate University auf. Ziel ist es, in kurzer Zeit Top-Führungskräfte auf globale Finanz- und Managementstandards, Strategie- und Veränderungsprozesse vorzubereiten. Er holt internationale Professoren und interne Praktiker zusammen, entwickelt maßgeschneiderte Lernformate und nutzt erstmals satellitenbasierte Schulungen, um weltweit Wissen zu vermitteln. Dieser innovative, praxisnahe Ansatz beim Management-Development wird zum Vorbild in der deutschen Industrie.

5. Blick auf die Automobilindustrie, kulturelle Hürden und Zukunft des Lernens
Braun zeigt in seinen Erzählungen, wie konservativ die europäische Automobilindustrie lange agierte: Innovationspotenziale wie Elektroantriebe, Software-Engineering oder autonome Systeme wurden früher bei Daimler durchaus erkannt, aber wegen interner Widerstände und Kurzsichtigkeit verschmäht oder ausgelagert. Über Kooperationen mit Tesla und andere Start-ups sind viele bahnbrechende Ideen aus Stuttgart letztlich anderswo in erfolgreiche Produkte eingeflossen.
Das Problem sieht Braun in mentalen Barrieren, mangelnder Risikobereitschaft und in eingefahrenen Strukturen. Während er in den USA und später im asiatischen Raum ein hohes Tempo, mutige Entscheidungen und flache Hierarchien erlebt, herrscht in Deutschland oft ein starres Korsett aus Bürokratie, internen Rivalitäten und fehlendem Willen, sich neu zu erfinden. Viel Wissen und Können verschwindet so im Nirgendwo. Gleichzeitig mahnt Braun, dass Bildung und Unternehmensführung von Anfang an Freude am Lernen, Teamgeist und die Fähigkeit zur flexiblen Selbstorganisation vermitteln müssen. Nur so lassen sich globale Herausforderungen meistern, radikale Innovationen umsetzen und sinnstiftende Karrieren für kommende Generationen ermöglichen.


In seiner jahrzehntelangen Laufbahn hat Wolfgang Braun gelernt, dass konsequentes Lernen, kulturelle Offenheit, Mut zur Veränderung und ein intelligentes Zusammenspiel von Teamarbeit, Technologie und Strategie entscheidend sind. Er zeigt an vielen Beispielen, wie nötig es ist, starre Denkweisen aufzubrechen, die richtigen Menschen zu fördern und eine Organisation so zu gestalten, dass sie auf globale Märkte und rasanten technologischen Wandel reagieren kann. Das Vermächtnis seines Berufswegs ist die Erkenntnis, dass Ingenieurskunst, Management-Know-how und menschliche Faktoren zusammenkommen müssen, um echte Transformation zu bewirken.

Die vollständige Liste aller Energiegespräche finden Sie hier: https://energiespeicher.blogspot.com/p/energiegesprache-mit-eduard-heindl.html


Dienstag, 3. Dezember 2024

Prof. Dr. Heinz-Otto Peitgen, 2. Gespräch

 

Zusammenfassung des Podcasts mit Prof. Dr. Heinz-Otto Peitgen: Herausforderungen und Perspektiven der Energiewende


Das vollständige Gespräch auf mit Prof. Dr. Heinz-Otto Peitgen auf YouTube.



Einleitung: Die Materialfrage in der Energieproduktion

Prof. Peitgen und der Gastgeber Eduard Heindl thematisieren die Materialintensität verschiedener Energiequellen. Ein Gaskraftwerk benötigt relativ wenig Material pro erzeugter Megawattstunde. Im Vergleich dazu ist der Materialbedarf für Windenergie (onshore und offshore) fünf- bis achtmal so hoch, und Photovoltaik (PV) beansprucht den dreifachen Materialeinsatz.

Die internationale Energieagentur (IEA) bestätigt: Die Energiewende wird den Materialverbrauch weltweit drastisch erhöhen, insbesondere für Kupfer, Stahl und Beton.


Rohstoffknappheit: Kupfer als Beispiel

Kupfer steht als Schlüsselelement der Energiewende im Fokus:

  • Seit Beginn der Menschheitsgeschichte wurden ca. 700 Millionen Tonnen Kupfer abgebaut. In den nächsten 22 Jahren wird erneut so viel benötigt – ohne die zusätzliche Nachfrage durch die Energiewende.
  • Der Kupfergehalt in neuen Minen sinkt stetig, wodurch die Förderung ineffizienter und teurer wird.
  • Der für ein global erneuerbares Energiesystem erforderliche Kupferbedarf übersteigt die derzeitigen Reserven bei weitem.

Für Batteriespeicher verschärft sich die Problematik. Selbst für Pufferungen von nur wenigen Stunden entstehen unvorstellbare Anforderungen an die Rohstoffgewinnung.


Das Problem der Speicher und Netze

Die Volatilität erneuerbarer Energien wie Wind und Solar erfordert umfangreiche Speicherlösungen. Während Batterien in der Theorie eine mögliche Option sind, scheitern sie in der Praxis an den exorbitanten Materialanforderungen. Alternativen wie Wasserstoff als Speicher sind ineffizient: Für jede gespeicherte Kilowattstunde Strom wird die vierfache Menge an Energie benötigt.

Auch der Netzausbau ist eine Herausforderung:

  • Die bestehenden Netze wurden für zentrale Kraftwerke konzipiert, nicht für die dezentrale Erzeugung von Solar- und Windenergie.
  • Der Ausbau neuer Leitungen kostet immense Summen und stößt häufig auf Widerstand in der Bevölkerung.

Ehrlichkeit über Kosten und Realisierbarkeit

Die politische Kommunikation zur Energiewende bleibt unklar, insbesondere zu den realen Kosten:

  • Die bisherigen Schätzungen bleiben oberflächlich und vermeiden konkrete Zahlen zu Endverbraucherpreisen und volkswirtschaftlichen Belastungen.
  • Die politischen Ziele von „Net Zero“ (Klimaneutralität) bis 2045 sind nur schwer mit den physischen und ökonomischen Realitäten in Einklang zu bringen.

Peitgen plädiert für mehr Transparenz und ein realistisches Ziel, wie z.B. eine 50-60%ige Reduktion der CO₂-Emissionen. Diese Strategie würde globale Rohstoffengpässe und unüberwindbare technische Herausforderungen mildern.


Fazit: Die Energiewende braucht einen ehrlichen Neustart

Der Podcast endet mit dem Aufruf, die Energiewende auf einer realistischeren Basis zu gestalten. Ehrliche Kommunikation über Kosten, Technologien und Zeitrahmen ist entscheidend, um gesellschaftliche Akzeptanz zu sichern und langfristig politische sowie wirtschaftliche Stabilität zu gewährleisten.

Vollständige Liste aller Gespräche: https://energiespeicher.blogspot.com/p/energiegesprache-mit-eduard-heindl.html