Startseite

  • Digital Gold

    Digital Gold

    It was December 24th, and the world was electrified. Not because of the approaching Christmas festivities or the snow-covered streets glowing with golden lights. No, the feverish excitement stemmed from a single digital number hovering over the world like a star: Bitcoin had broken the magical one-million-dollar barrier.

    People were in a frenzy. On Christmas markets, they no longer bought wooden toys or gingerbread – all that mattered was whether you had enough Satoshi in your digital wallet. Families didn’t exchange gifts but QR codes. Even Santa Claus had adapted: instead of reindeer, a blockchain-sleigh app now powered his digital ride through the cloud.

    But deep beneath the North Pole server farm, where the International Christmas Consortium resided, a few seasoned men and women in gray suits were rubbing their hands together. The leader of this conspiratorial circle was none other than Mr. Globcoin, a cunning strategist who had masterfully orchestrated the transition from physical gold to digital glitz. Sitting next to him was Ms. Satoshi, her smile as cold as the code she had allegedly written. The third member, Mr. Fiat, seemed old-fashioned but was renowned for his dexterity in manipulating the global economy.

    „People really believe they’re free when they buy Bitcoin”, said Globcoin with a grin. „Meanwhile, we couldn’t control them any better.”

    Ms. Satoshi nodded. „Every time someone makes a transaction, we know where they were, what they wanted, and how to get them to do it again.” She tapped a screen displaying blinking Bitcoin addresses. „The blockchain is the perfect data retention system. And the best part? They call it a revolution.”

    Mr. Fiat, holding a glass of champagne, raised it ceremoniously. „Who would have thought we’d come this far after the end of the gold standard? Now we have the perfect tool to create the illusion of wealth – without any real value.”

    Meanwhile, in a modest living room somewhere in Central Europe, a man named Karl sat with his family. Karl was a simple man who had always stored his money in an old sock. But a month ago, his neighbor Max had convinced him to „invest in the future”. So Karl had put all his savings into Bitcoin. Now, he sat there, smartphone in hand, nervously watching the price fluctuations.

    „Dad, why isn’t Santa coming this year?” asked his little daughter Lena.

    Karl murmured absentmindedly, „Because Santa also wants to be paid in Bitcoin, sweetheart. And Dad hasn’t earned enough yet.”

    At that moment, a push notification appeared on Karl’s screen: „Bitcoin crashes by 30%!” Karl’s heart skipped a beat. He jumped up, his voice trembling. „It’s a crash! It’s all gone!”

    Max, who was sipping mulled wine with Karl’s wife, laughed. „Relax, Karl. It’s just a correction. Long-term, it always goes up!”

    But Karl wasn’t listening. As he panicked and sold his Bitcoins to salvage a few euros, behind the scenes, Globcoin & Co.’s bots were eagerly buying. The cycle repeated itself: some lost everything, while others grew richer.

    Back at the North Pole headquarters, Ms. Satoshi set her coffee cup down. „We should start thinking about the next step. Maybe a world where everyone has to buy their social status as an NFT?”

    (Note: NFT stands for Non-Fungible Token, which is just a fancy way of saying you own a unique digital doodad, like a virtual trading card, a JPEG of a banana, or perhaps a pixelated Christmas tree. Perfect for the holidays!)

    Globcoin nodded thoughtfully. „Good idea. We’ll call it ‘Tokenized Humanity.’ But not until after New Year’s – we wouldn’t want to ruin their Christmas cheer.”

    And so, the world entered another holiday season, blindly dancing in the glow of digital gold, unaware of who was really pulling the strings. The true gift remained hidden under the tree: a simple moment of realization that freedom can never be encoded on a blockchain.

    Yes, you read that correctly.

    This story was generated by ChatGPT. We asked the AI to write a satirical yet insightful Christmas story on the theme of „Bitcoin as digital gold”. The result was available in less than five seconds.

    Generative AI like ChatGPT is often described as a mirror of humanity. But how does it actually work? ChatGPT was trained by analyzing patterns in millions of text passages from the internet. Using complex mathematical algorithms, the AI creates new content that, while based on familiar templates, is uniquely crafted through probabilistic functions.

    However, exercise caution when evaluating texts from generative AI. „As the saying goes, you never know what you’re going to get”, explains Lance Eliot, pointing out that AI-generated results are often subject to subjective interpretation.

    Whether this Christmas story is true or entirely fictional is up to you to decide. For those still unsure, perhaps our articles „Smart Governance – The Art of Governing” or „CBDC – A Love Story with Reservations” might provide some inspiration.

    Season’s Greetings!
    Your DigDeeply Team

  • Das digitale Gold

    Das digitale Gold

    Es war der 24. Dezember, und die Welt war wie elektrisiert. Nicht etwa wegen des nahenden Weihnachtsfestes oder den verschneiten Straßen, die in goldenem Lichterglanz erstrahlten. Nein, der Grund für die fiebrige Aufregung lag in einer digitalen Zahl, die wie ein Stern über der Welt schwebte: der Bitcoin-Kurs hatte die magische Grenze von einer Million Dollar überschritten.

    Die Menschen waren wie im Rausch. Auf den Weihnachtsmärkten kauften sie keine Holzspielzeuge oder Lebkuchen mehr – alles, was zählte, war, ob man genug Satoshi in seiner digitalen Brieftasche hatte. Familien schenkten sich keine Geschenke, sondern QR-Codes. Selbst der Weihnachtsmann hatte sich angepasst: Statt Rentieren zog nun eine Blockchain-Schlitten-App seinen digitalen Schlitten durch die Cloud.

    Doch tief unter der Nordpol-Serverfarm, wo das internationale Weihnachtskonsortium residierte, rieben sich ein paar alteingesessene Männer und Frauen in grauen Anzügen die Hände. Der Anführer dieser verschworenen Runde war niemand anderes als Herr Globcoin, ein gewiefter Strippenzieher, der es geschafft hatte, den Übergang von physischem Gold zu digitalem Glanz meisterhaft zu orchestrieren. Neben ihm saß Frau Satoshi, deren Lächeln so kalt wie der Code war, den sie angeblich geschrieben hatte. Der Dritte im Bunde, Herr Fiat, wirkte zwar altmodisch, doch seine Fingerfertigkeit beim Manipulieren der Weltwirtschaft war legendär.

    „Die Menschen glauben wirklich, sie wären frei, wenn sie Bitcoin kaufen“, sagte Globcoin mit einem Grinsen. „Dabei könnten wir sie nicht besser kontrollieren.“

    Frau Satoshi nickte. „Jedes Mal, wenn jemand eine Transaktion durchführt, wissen wir, wo er war, was er wollte und wie wir ihn dazu bringen können, es noch einmal zu tun.“ Sie tippte auf einen Bildschirm, auf dem blinkende Bitcoin-Adressen zu sehen waren. „Die Blockchain ist die perfekte Vorratsdatenspeicherung. Und das Beste? Sie nennen es Revolution.“

    Herr Fiat, der ein Glas Champagner in der Hand hielt, hob es feierlich. „Wer hätte gedacht, dass wir nach dem Ende des Goldstandards soweit kommen? Jetzt haben wir das perfekte Mittel, um die Illusion von Reichtum zu schaffen – ohne dass es echten Reichtum gibt.“

    Währenddessen, in einem bescheidenen Wohnzimmer irgendwo in Mitteleuropa, saß ein Mann namens Karl mit seiner Familie. Karl war ein einfacher Mann, der sein Geld bisher in einem alten Sparstrumpf gehortet hatte. Doch vor einem Monat hatte ihn sein Nachbar Max überzeugt, endlich „in die Zukunft zu investieren“. Also hatte Karl sein gesamtes Erspartes in Bitcoin gesteckt. Nun saß er da, sein Smartphone in der Hand, und beobachtete nervös die Kursschwankungen.

    „Papa, warum kommt der Weihnachtsmann dieses Jahr nicht?“ fragte seine kleine Tochter Lena.

    Karl murmelte abwesend: „Weil der Weihnachtsmann auch in Bitcoin bezahlt werden will, Schatz. Und Papa hat noch nicht genug verdient.“

    In diesem Moment erschien auf Karls Bildschirm eine Push-Benachrichtigung: „Bitcoin-Kurs bricht um 30 % ein!“. Karls Herz setzte aus. Er sprang auf, seine Stimme zitterte. „Es ist ein Crash! Alles ist weg!“

    Max, der gerade noch einen Glühwein mit Karls Frau trank, lachte. „Bleib ruhig, Karl. Das ist nur eine Korrektur. Langfristig geht es immer nach oben!“

    Aber Karl hörte nicht zu. Während er in Panik seine Bitcoins verkaufte, um wenigstens ein paar Euro zu retten, kauften im Hintergrund Bots von Globcoin & Co. fleißig auf. Der Kreislauf wiederholte sich: Die einen verloren alles, die anderen wurden reicher.

    Zurück in der Nordpol-Zentrale setzte Frau Satoshi ihre Kaffeetasse ab. „Wir sollten uns Gedanken über den nächsten Schritt machen. Vielleicht eine Welt, in der jeder seinen Sozialstatus als NFT kaufen muss?“

    (Hinweis: NFT steht für Non-Fungible Token (nicht austauschbare Wertmarke), was nur eine schicke Umschreibung dafür ist, dass Sie ein einzigartiges digitales Dingsbums besitzen, z. B. eine virtuelle Sammelkarte, ein JPEG einer Banane oder vielleicht einen verpixelten Weihnachtsbaum. Perfekt für die Feiertage!)

    Globcoin nickte nachdenklich. „Gute Idee. Wir nennen es »Tokenisierte Menschlichkeit«. Aber erst nach Silvester – wir wollen den Menschen ja die Weihnachtsfreude nicht verderben.“

    Und so ging die Welt in eine weitere Feiertagssaison, blindlings tanzend im Glanz des digitalen Goldes, ohne zu merken, wer wirklich die Strippen zog. Das wahre Geschenk blieb unterm Baum verborgen: ein einfacher Moment der Erkenntnis, dass Freiheit niemals auf einer Blockchain kodiert werden kann.

    Ja, Sie haben richtig gelesen.

    Diese Geschichte wurde von ChatGPT generiert. Wir haben die KI gebeten, eine satirische, aber dennoch lehrreiche Weihnachtsgeschichte zum Thema „Bitcoin als das digitale Gold“ zu schreiben. Das Ergebnis war innerhalb von weniger als fünf Sekunden verfügbar.

    Generative KI wie ChatGPT wird oft als Spiegel der Menschheit bezeichnet. Doch wie funktioniert sie genau? ChatGPT wurde durch die Analyse von Mustern in Millionen von Textpassagen aus dem Internet trainiert. Mit Hilfe komplexer mathematischer Algorithmen erzeugt die KI neue Inhalte, die zwar auf bekannten Vorlagen basieren, jedoch durch auf Wahrscheinlichkeiten beruhende Funktionen einzigartig gestaltet werden.

    Seien Sie dennoch vorsichtig bei der Beurteilung von Texten der generativen KI. „Wie man so schön sagt, man weiß nie, was man bekommt“, erklärt Lance Elliot und verweist darauf, dass KI-Ergebnisse oft subjektiv interpretiert werden.

    Ob diese Weihnachtsgeschichte nun wahr ist oder frei erfunden, bleibt jedem selbst überlassen. Wer noch unschlüssig ist, findet vielleicht Inspiration in unseren Beiträgen „Smart Governance – Die Kunst des Regierens“ oder „CBDC – Eine Liebesgeschichte mit Vorbehalten“.

    Festliche Grüße!
    Euer DigDeeply-Team

  • FARM & FOOD 4.0

    FARM & FOOD 4.0

    „You’re not you when you’re hungry“ – an advertising slogan that most of us immediately associate with a well-known chocolate bar. It has now become so ingrained in our language that we often hear it casually and perhaps even smile. But have you ever thought about how much truth there actually is in these words?

    Just imagine: Your stomach is growling. Not the harmless grumbling that you can satisfy with a quick snack, but a hunger that is slowly consuming you. Your gaze wanders around, but everything you see reminds you of food – and the lack of it. How far would you go to satisfy this hunger? Would you share? Would you take? Would you fight?

    Hunger changes us – physically, mentally, and emotionally. It’s no coincidence that our bodies go into a state of emergency when food is scarce. Sudden irritability, difficulty concentrating and a paralysing feeling of weakness are just the beginning. Your brain, dependent on glucose, resists every clear thought. Even the simplest decisions become a challenge. Without sufficient nutrients, the body cannot provide enough energy for everyday tasks, leading to fatigue and exhaustion. Hunger becomes not just a lack of food, but a lack of control.

    But that’s not all. Hunger can not only make people irritable, but also dangerous. Studies show that low blood sugar levels can increase aggression. Suddenly every obstacle seems like a personal attack, every discussion like a fight. And when hunger becomes chronic, it leaves deep scars: anxiety, depression, and a pervasive feeling of powerlessness.

    But what happens when it’s not just you, but millions of people who go hungry? When hunger is not just the problem of one individual, but of entire societies? Henry Kissinger put it succinctly: „Who controls the food supply, controls the people…“.

    Control over food is power. It’s not just about what ends up on our plates but also about who decides what, and how much, can be eaten at all. The authority over food can ignite conflicts, destabilize governments, and shape the lives of entire nations. Hunger is not only a tragedy but also a tool – and in the wrong hands, a weapon.

    That is why a fair food supply is more than an act of humanity. It is a key to peace, freedom and stability. Food not only satisfies hunger, it preserves dignity and cohesion. Because at the end of the day, it is far more than just energy: it is the foundation on which our common life stands.

    In this blog post, we will explore the power structures and strategies that will shape the future food supply and what this could mean for us all.

    1. Food Chain Reaction – Shaping the Future Through Play
    1.1. The Organizers
    1.2. The Participants
    1.3. The Exercise
    1.4. Some Conclusions
    1.5. From Simulation to Reality
    2. The Fourth Industrial Revolution and Shaping Food Systems
    2.1. Changing Demand
    2.2. Digitalization Across the Entire Value Chain
    2.3. Follow the Science - Next-Generation Biotechnologies and Genomics
    3. Where the Present and Future Converge
    4. The Magic of Small Steps
    5. On the Contrasts of Current Politics
    6. Outlook

    1. Food Chain Reaction –
    Shaping the Future Through Play

    In a complex world increasingly shaped by uncertainties and challenges, experts and decision-makers are seeking innovative ways to anticipate and address future crises. Simulation exercises play a crucial role in this process. Such approaches offer an excellent opportunity for hands-on training. Participants can immerse themselves in various scenarios and immediately experience the consequences of their decisions. They have the chance to experiment in a safe environment, make mistakes, and learn from them – without real-world consequences. In this way, leaders can expand their skills and knowledge, preparing themselves for actual crisis situations.

    The design and definition of the simulation conditions are decisive for the findings and results of the exercise. Which scenarios are played out? Which factors are considered relevant? These decisions determine which aspects of reality are represented in the simulation and which may be left out. Each simulation is based on specific assumptions and hypotheses that can strongly influence how the participants interpret and react to the scenarios. The objectives pursued with the simulation are also related to its design and results. Is the aim to test specific policy measures or to create a general awareness of risks? The composition of the group of participants also influences the results. Whether government officials, scientists, representatives of NGOs or the private sector – their respective perspectives and interests often lead to different approaches and conclusions.

    A vivid example of such an exercise is the Food Chain Reaction, a large-scale simulation that took place in Washington, D.C., in November 2015. Organised by the Center for American Progress (CAP), the World Wildlife Fund (WWF), Cargill Inc, Mars Inc and the Center for Naval Analysis (CNA), it brought together over 65 experts and decision-makers from around the world. The aim was to simulate the reactions to a hypothetical global food crisis in the period from 2020 to 2030. Extreme weather events, price fluctuations and political instability were combined in the scenarios to make the complexity and impact of such a crisis tangible – and to develop potential solutions.


    1.1. The Organizers

    Let’s first take a look at the organisers of the event, who designed and ran the simulation:

     Center for American Progress (CAP) 

    The CAP presents itself on its official website as follows:

    The Center for American Progress is an independent, nonpartisan policy institute that is dedicated to improving the lives of all Americans through bold, progressive ideas, as well as strong leadership and concerted action. Our aim is not just to change the conversation, but to change the country.

    We develop new policy ideas, challenge the media to cover the issues that truly matter, and shape the national debate. With policy teams from a number of disciplines and major issue areas, CAP applies creative approaches to develop ideas for policymakers that lead to real change. Our extensive communication and outreach efforts allow us to adapt to a rapidly changing media landscape and move our ideas aggressively in the national policy debate.

    CAP was founded by John Podesta. You can read more about the actual influence wielded by this organization at this link:

    John Podesta is the founder of the Center for American Progress. He currently serves as the senior adviser to the president for clean energy innovation and implementation. Podesta served as counselor to President Barack Obama, where he was responsible for coordinating the administration’s climate policy and initiatives. In 2008, he served as co-chair of President Obama’s transition team. He was a member of the U.N. Secretary General’s High-Level Panel of Eminent Persons on the Post-2015 Development Agenda. Podesta previously served as White House chief of staff to President William J. Clinton. He chaired Hillary Clinton’s campaign for president in 2016.

    You can find more interesting details about CAP on Wikipedia.

    Although CAP describes itself as non-partisan, there is a clear bias towards social and environmental issues, which also characterize the focus of the „Food Chain Reaction” exercise. Founder John Podesta, himself a former top politician, strengthens CAP’s influence in government circles, which at the same time raises questions about the institute’s actual neutrality and objectivity. Critics argue that CAP’s progressive values could influence the selection and presentation of crisis scenarios and thus steer the results and recommendations in a certain direction.

     World Wildlife Fund (WWF) 

    [official website of the organization]

    WWF is one of the world’s largest and best-known nature conservation organisations. Founded in 1961, WWF is headquartered in Gland, Switzerland, and is active in over 100 countries. With more than five million supporters worldwide, WWF is committed to the protection of natural habitats and the conservation of biodiversity.

    The WWF’s primary concerns include protecting endangered species and preserving natural habitats such as forests, oceans, and freshwater ecosystems. Additionally, the WWF promotes sustainable resource use and advocates for environmentally friendly practices in fishing, agriculture, forestry, and water management. Another key goal is combating climate change by reducing greenhouse gas emissions and promoting renewable energy. The WWF also supports global projects aimed at the sustainable development of communities, enabling environmentally conscious resource use and improving quality of life.

    Despite its significant efforts and achievements, the WWF has faced criticism. A central point of contention is its collaboration with industry: the WWF is accused of working too closely with large corporations that themselves contribute significantly to environmental degradation. Critics claim that these partnerships often result in „greenwashing”, where companies portray their environmental record as better than it actually is.

    There are reports that indigenous communities have been displaced in protected areas supported by WWF. This has resulted in these people losing access to their ancestral habitats and resources. Such measures often cause considerable social and economic problems and trigger tensions and resistance on the ground.

    The long-term effectiveness of WWF projects is also questioned. Critics argue that the successes achieved are often short-term and that the root causes of environmental destruction are not adequately addressed.

    The WWF has also been accused of lacking financial transparency, particularly regarding the sources and use of its funds.

    The fact that prominent figures such as Prince Philip and King Juan Carlos, known enthusiasts of big-game hunting, held leading positions in the WWF has sparked significant controversy. Critics argue that their participation in big-game hunting contradicts the goals and ethics of the WWF, which is dedicated to protecting wildlife and their habitats. This perceived double standard has been heavily criticized by conservationists and the public alike.

    While Prince Philip and King Juan Carlos claimed that regulated hunting could contribute to the conservation of certain species and support local communities, for many the practice remains a symbol of colonial and aristocratic privilege and the exploitation of natural resources. As a result, the credibility and ethical principles of the organisation are called into question.

     Center for Naval Analysis (CNA) 

    The CNA presents itself on its official website as follows:

    CNA is an independent, nonprofit research and analysis organization dedicated to the safety and security of the nation. For 80 years, our scientific rigor and real-world approach to data has been indispensable to leaders facing complex problems. CNA employs operations research to address military questions in the Center for Naval Analyses and domestic challenges in the Institute for Public Research.

    The Center for Naval Analysis (CNA) positions itself as an independent, nonprofit research organization dedicated to national security. With over 80 years of experience in scientific research and data-driven analysis, CNA has built a solid reputation among policymakers tackling complex issues. The combination of operational research and the examination of military and domestic political questions gives the organization a significant role in the political discourse.

    Although CNA strives for scientific accuracy, the question of objectivity remains, especially when applying research findings to political decisions. Decisions regarding food security are often highly political and socially charged. As a result, the interpretation of data by policymakers could be influenced, raising concerns about the neutrality of the research. In an environment where political and military interests are often closely intertwined, the question of CNA’s true neutrality becomes crucial.

     Cargill Inc. 

    [official website of the company]

    The Handelsblatt describes the company in its article „This Silent Giant Shapes the Global Food Business” from August 2, 2019, as follows:

    What do grain silos, fish farming, and lab-grown meat have in common? They all belong to the business of the US agribusiness giant Cargill.

    However, since Cargill hardly produces end products, the general public is not very familiar with the company. Today, 155,000 people work for the agribusiness specialist in 70 countries. The company also has a presence in Germany, with twelve locations and a total of 1,700 employees.

    In the USA, all McDonald’s restaurants source their eggs from Cargill farms. In Thailand, Cargill is the largest poultry producer. The company also partly finances its customers‘ businesses and maintains a sizeable fleet of transport ships. German supermarkets and discounters are also supplied, but the name Cargill does not appear at all.

    Almost every American eats food every daywithout realizing itwhose ingredients Cargill has helped to produce. From supplying farmers with animal feed to processing ingredients for food manufacturers, Cargill covers almost the entire supply chain. Together with the three agricultural groups ADM, Bunge and Louis Dreyfus, Cargill controls 90 per cent of the global grain market, according to the Pitchbook database.

    The company has a very unique approach: ‘When Cargill recognises a growth market, the Group buys companies in that market in order to understand the business from the ground up’.

    Most recently, MacLennan (CEO of Cargill) also invested in lab-grown meat. Under his leadership, Cargill acquired a stake in the Israeli start-up Aleph Farms in May. The company produces meat from cell cultures without the need to grow and kill animals.

    This is Cargill’s second investment in a producer of lab-grown meat. Back in 2017, MacLennan invested in Memphis Meats together with Bill Gates and Richard Branson; the company claims to be the first to produce chicken meat without chickens.

    In addition, Cargill holds a minority stake in Puris, the manufacturer of pea proteins. These proteins form the basis for many meat alternatives. One of its customers is Beyond Meat.

    Environmentalists accuse the company of being responsible for greenhouse gas emissions and deforestation. According to a study by the Institute for Agriculture and Trade Policy and the environmental organization Grain, the five largest meat and dairy companies – including Cargill – are responsible for more greenhouse gas emissions annually than oil companies such as Exxon Mobil, Shell, or BP.

    The environmental protection organization Mighty Earth blamed Cargill and its competitor Bunge for deforestation in the Bolivian Amazon and in Brazil. In the area of the Cerrados, the savannahs of central Brazil, an area of around 130,000 hectares was deforested between 2011 and 2015 because of Cargill.

    This criticism is probably one of the reasons why the company has committed to more sustainable business practices. Since 2017, the Group has been one of almost 10,000 members of the UN Global Compact initiative, which is committed to making globalization more socially and environmentally friendly.

    However, Mighty Earth recently published a detailed report on Cargill’s environmental misconduct in mid-July. According to the environmental organization, the company had several months to make changes, but failed to do so.

    Cargill’s role in the global food business is ambivalent. As one of the largest agribusiness corporations worldwide, Cargill controls a significant portion of global supply chains. This market power enables the company to exert political influence and shape decisions in food policy. However, the question remains whether this influence is truly exercised in the best interests of the public or primarily serves the company’s own interests.

     Mars Inc. 

    [official website of the company]

    Mars Inc. is a U.S.-based multinational manufacturer of confectionery, pet food, and other food products, as well as a provider of pet care services, with a revenue of 45 billion USD in 2022. The U.S. business magazine Forbes ranked the company as the fourth-largest privately held company in the United States.

    As a global company with the footprint of a small country, we have the responsibility – and the opportunity – to leave a lasting impact on the world, is the message from the co-organizer of the „Food Chain Reaction” exercise.  

    However, the lasting impact on the world has some downsides. The following can be found on Wikipedia in this regard:

    2019 gab Mars bekannt, dass sie nicht garantieren können, dass ihre Schokoladenprodukte frei von Kindersklavenarbeit sind, da sie nur 24 % ihrer Einkäufe bis auf die Ebene der Farmen zurückverfolgen können. In 2019, Mars announced that they could not guarantee that their chocolate products were free from child slave labor, as they could trace only 24% of their purchasing back to the farm level.

    In 2021, Mars was named in a class action lawsuit filed by eight former child slaves from Mali who alleged that the company aided and abetted their enslavement on cocoa plantations in Ivory Coast. The suit accused Mars (along with Nestlé, Cargill, Barry Callebaut, Olam International, the Hershey Company, and Mondelez International) of knowingly engaging in forced labor, and the plaintiffs sought damages for unjust enrichment, negligent supervision, and intentional infliction of emotional distress. In June 2021, the United States Supreme Court dismissed the lawsuit on the grounds that as the abuse had happened outside the United States, the group did not have standing to file such a lawsuit.

    A CBS television news investigation in 2023 found children as young as five years old working in the Ghana supply chain of Mars to harvest cocoa for brands such as Snickers and M&Ms.

    In September 2017, an investigation conducted by NGO Mighty Earth found that a large amount of the cocoa used in chocolate produced by Mars and other major chocolate companies was grown illegally in national parks and other protected areas in Ivory Coast and Ghana. The countries are the world’s two largest cocoa producers.

    The report documents show, in several national parks and other protected areas, 90% or more of the land mass has been converted to cocoa. Less than four percent of Ivory Coast remains densely forested, and the chocolate companies‘ laissez-faire approach to sourcing has driven extensive deforestation in Ghana as well. In Ivory Coast, deforestation has pushed chimpanzees into just a few small pockets, and reduced the country’s elephant population from several hundred thousand to about 200–400.

    Mars Inc., as one of the largest global food companies, positions itself as a responsible player with the aim of having a sustainable impact on the world. However, the publicly available information paints a rather ambivalent picture and suggests that Mars Inc. may base its strategic decisions more on its own interests and market needs than on long-term social and environmental goals.


    1.2. The Participants

    Who were the participants in the „Food Chain Reaction” exercise?

    The event was primarily aimed at high-ranking officials and experts from Brazil, continental Africa, China, the European Union (EU), India and the USA, as well as multilateral institutions, companies and investors.

    However, anyone looking for representatives of small and medium-sized agricultural businesses in the list of participants will be disappointed. Instead, you will find the following organisations, among others:

     Embrapa (Empresa Brasileira de Pesquisa Agropecuária) 

    [official website of the organization]

    Embrapa is the Brazilian Agricultural Research and Development Organization, which plays a central role in the development and modernization of agriculture in Brazil. The organization is part of the Brazilian Ministry of Agriculture. Its mission is to develop technologies through innovative research that increase agricultural productivity, minimize environmental impacts, and improve food security.

    Embrapa conducts a wide range of research projects and has played a crucial role in optimizing crops. The organization develops varieties specifically tailored to Brazil’s climatic conditions and promotes the use of modern farming methods. These advancements have transformed Brazil from a net importer to one of the leading agricultural producers and exporters in the world.

    At the same time, Embrapa also faces criticism, particularly with regard to its environmental and social impact resulting from the promotion of intensive industrial agricultural practices.

    Embrapa has played a key role in the expansion of genetically modified monocultures such as soy, corn, and sugarcane in Brazil. Critics view the promotion of genetically modified organisms (GMOs) as a threat to the environment and the food sovereignty of farmers. These monocultures have led to a range of environmental issues, including deforestation, soil degradation, and the loss of biodiversity.

    The intensive agriculture promoted by Embrapa often relies on the use of agrochemicals and artificial irrigation, which can lead to the overuse of water resources and the contamination of soil and water with pesticides and fertilizers.

    Critics accuse Embrapa of prioritizing the interests of large agribusinesses over those of small farmers. The expansion of industrial agriculture has often led to the displacement of small farmers and indigenous communities. The technologies promoted by Embrapa have frequently strengthened large landowners, resulting in a greater concentration of land in the hands of a few. This has exacerbated social inequalities and undermined the livelihoods of many small farmers.

    In an analysis titled „Shallow fixes and deep reasonings: framing sustainability at the Brazilian Agricultural Research Corporation (Embrapa)” from December 2023, the authors reach the following conclusion: „Our results show that while Embrapa promotes practices based on alternative approaches such as agroecology, its deeper framing often reflects the core assumptions driving dominant industrial food systems. This framing reinforces underlying logics of control, efficiency, and competition aligned with the productivist paradigm and excludes divergent perspectives that exist within the organization.

     Louis Dreyfus Company (LDC) 

    [official website of the company]

    LDC is one of the oldest and largest agribusiness companies in the world. The company is a key player in the global trade of agricultural commodities and is part of the so-called „ABCD” companies (Archer Daniels Midland, Bunge, Cargill, and Louis Dreyfus), which dominate the global agricultural market. The firm operates globally and is primarily engaged in the trading, processing, and transportation of agricultural raw materials. It also operates a variety of infrastructure, such as warehouses, processing plants, and transport fleets, to support the trade of these commodities.

    In December 2022, Peruvian and international organisations filed a complaint with the OECD in the Netherlands calling for the Louis Dreyfus Company (LDC) to be held accountable for contributing to negative impacts on the environment, human rights and corruption through the sourcing of palm oil from the Ucayali region in the Peruvian Amazon. In September 2023, the OECD supervisory authority admitted the complaint filed by the indigenous organisations against Louis Dreyfus Company.

    Further criticism of LDC’s business practices can be found in this article.

     Kellogg Company 

    [official website of the company]

    The Kellogg Company (also known as Kellogg’s) is a leading multinational food company, primarily known for its breakfast products such as cornflakes, cereals, and snacks. Over the years, Kellogg’s has grown into one of the largest producers of processed foods globally and is currently operating in over 180 countries.

    Kellogg’s products, particularly its breakfast cereals, have often been criticized for their high sugar and salt content. Despite efforts to offer healthier products, the company has been accused of contributing to the obesity epidemic, particularly among children, with many of its flagship products. In April 2024, the particularly harmful aromatic mineral oil hydrocarbons (MOAH) and pesticide residues were detected in Kellogg’s cornflakes in laboratory tests. When Kellogg’s CEO recommended its muesli as an evening snack to poor families, the SPIEGEL magazine got upset in February 2024:

    The idea might not sit well with many: Multimillionaire Gary Pilnick has touted his cereals as the ideal solution for families on a tight budget. Mocking reactions were quick to follow.

     Global Crop Diversity Trust 

    [official website of the organization]

    Crop Trust is an international organization dedicated to the conservation of plant genetic resources. Its main objective is to preserve the diversity of crops worldwide in order to ensure future food security. It was founded in 2004 by the UN Food and Agriculture Organization and the Consultative Group on International Agricultural Research (CGIAR) as an independent fund under international law. The foundation’s assets are provided by public and private donors. The list of donors includes names such as Bezos Earth Fund, Bill & Melinda Gates Foundation, DuPont/Pioneer Hi-Bred, Pepsico, Rockefeller Foundation, Syngenta and Unilever.

    Crop Trust is known for managing the Svalbard Global Seed Vault in Norway, a secure seed bank that serves as a global backup for national and international gene banks. Preserving the genetic diversity of crops aims to help ensure global food security by providing farmers with access to a wide range of crop varieties adapted to different environmental conditions.

    Some experts favor in-situ conservation (preservation of plants in their natural habitats) over ex-situ conservation (preservation outside their natural habitats, such as in gene banks) because the former promotes natural evolution and adaptation of plants. Critics argue that funding from large corporations and foundations could lead to these donors influencing the organization’s priorities and strategies. Concerns have also been raised about the unequal distribution of availability and access to genetic resources stored in gene banks, potentially disadvantaging small-scale farmers or less developed countries.

     adelphi 

    [official website of the think tank and consulting organization]

    adelphi is an independent German think tank and consulting organization specializing in sustainability, climate and environmental policy, and international development cooperation. Founded in 2001 and headquartered in Berlin, the organization operates in both the public and private sectors, offering research, consulting, and project implementation across various domains, including climate change, energy policy, water management, biodiversity, and sustainable economic development.

    On the adelphi website, the following can be found:

    We are visionaries, designers, strategists and agenda-setters and work with and for governments, international organizations, cities, associations, NGOs and companies.

    But how independent is the „independent think tank” adelphi really?

    Alexander Carius is a political scientist and founder and director of adelphi. Together with Harald Welzer and Andre Wilkens, he initiated the nationwide debate series „The Open Society – What Kind of Country Do We Want to Be?” in autumn 2015.

    Andre Wilkens is also a political scientist who lived for many years in Brussels, London, Turin and Geneva, where he worked for the EU, foundations and the UN. Until 2015, he headed the Mercator Foundation’s Berlin Project Centre. Prior to that, he headed the Open Society Institute (OSI) of the Soros Foundation in Brussels and coordinated the activities of billionaire George Soros in Europe.

    The adelphi study „Convenient Truths – Mapping climate agendas of right-wing populist parties in Europe” published in 2019 also raises a number of questions regarding funding. When asked about this topic, adelphi provides a contradictory answer:

    adelphi’s work is project-financed; there is no project-independent funding from external bodies. The study »Convenient Truths – Mapping climate agendas of right-wing populist parties in Europe« was financed from own funds.“

    As a consulting organization, adelphi is heavily reliant on projects and contracts, often funded by governments and international organizations. This dependence could lead the organization to be less willing to take controversial or uncomfortable positions that might jeopardize its funding.


    1.3. The Exercise

    The „Food Chain Reaction” exercise was a strategic initiative carried out by a public-private partnership to sensitize government authorities and decision-makers from various sectors to the challenges and complex dynamics of a global food crisis through a specifically prepared simulation.

    The exercise was based on several hypothetical scenarios for the period 2020-2030, which included extreme weather events, crop failures, rising food prices, political instability, and migration. These scenarios were designed to simulate challenging conditions and force decision-makers to respond quickly and effectively. The goal was to raise the participants‘ awareness of the interconnections between climate change, food production, geopolitical stability, and economic factors.

    The key details of this exercise are presented in a promotional video.

    The participants from the USA, Brazil, China, India, Europe, and Africa – primarily from the leading countries in food production – were divided into six teams. The seventh team represented businesses and investors, while the eighth team represented multilateral institutions such as the World Bank, the United Nations, and non-governmental organizations.

    In designing the extreme situation, the focus was specifically on the following stress vectors:

    • Climate change and extreme weather events
    • Political and economic instability
    • Population growth and urbanisation

    Nothing brings people together like a common enemy. Behind this saying lies the fact that in extreme situations, certain biopolitical governance techniques come to the forefront. In this context, care within a doctrine of solidarity plays a central role.

    A team of „experts” assembled by the organizers of the exercise moderated and guided the discussions of the participants. This „intensive support” helped the participants more easily identify which solutions were effective and which were not.

    Against this background, the results of the exercise appear as „inevitable”. They can be summarized as follows:

    Global Governance

    While it was initially emphasized that national solutions are more likely to fail, by the end of the exercise, the only good and right solution was reached: Global Governance! The exercise highlighted the importance of multisectoral approaches, where actors from different sectors (government, private sector, NGOs) must collaborate to find comprehensive solutions.

    Teams deepened their commitment to global and regional cooperation and collaboration during crisis periods, in large part due to players’ open acknowledgement that no one nation, organization, or business could adequately address global food security.

    A Global Carbon Tax

    The development and implementation of policies addressing climate change played a crucial role in defining the appropriate solutions.

    The link between climate and food security was well recognized across the wide variety of global leaders who played the game. In addition, teams agreed to price environmental services, price carbon, support the development of a market for carbon trading, and cap global emissions levels.

    The New Normal is Volatility

    As the game advanced, teams confronted a »new normal« characterized to a large degree by volatility and uncertainty. Toward the end of the game, during the Global Summit on Climate Security and Vulnerability, representatives of each of the teams … came together to address security issues in the new, more volatile world. Key initiatives in the framework included:
    Strengthening existing institutions and authorities under the United Nations…,
    Creating a new Strategic Headquarters under the United Nations to better coordinate member states’ use of military and nonmilitary assets, and to preposition materials in areas of anticipated need.
    A broad consensus developed around the need for timely, relevant, and credible global information on food security drivers and indicators. The final round of play culminated in the convening of a Global Summit on Climate Security and Vulnerability, during which representatives of all teams, … expressed the desire for a more robust global coordination mechanism, with greater capacity to respond to climate related conflict and food system volatility.


    1.4. Some Conclusions

    The selection and prioritization of stress vectors such as climate change, political instability, and population growth initially directed the focus toward global and comprehensive crisis scenarios, making national solutions appear insufficient. This suggests a certain predetermined nature of the exercise outcomes, which left little room for alternative solutions at the national or local level.

    Another point is the „intensive guidance” provided by a team of organizers and experts who directed and moderated the discussions. This structural framing may have significantly shaped the participants‘ perspectives and approaches to solutions, ensuring that the favored approach of Global Governance appeared „without alternative”.

    In addition, the solution of global carbon pricing and emissions trading was emphasized, highlighting that the exercise also advocated for clearly defined economic and regulatory measures to be implemented at a global level.

    The absence of small and medium-sized agricultural enterprises as direct participants in the „Food Chain Reaction” exercise is also notable, especially as they are key players in the agricultural sector in many regions of the world. The exercise focused mainly on the political and economic decisions made by government agencies, large companies and international organizations.

    Instead of analyzing real events, the exercise used hypothetical scenarios to simulate the impacts of climate change, political instability, and economic factors on food supply. The focus was on developing policy measures and fostering international cooperation based on predefined narratives. An exercise based on simulated scenarios and primarily involving high-level stakeholders cannot fully account for the real-world conditions and challenges faced by farmers and local communities. Without the direct involvement of smaller stakeholders, crucial practical insights and needs that are essential for implementing strategies at the local level are overlooked.

    This top-down approach to securing the global food supply creates an environment where small and medium-sized enterprises increasingly become dependent on a few global players. In practice, this manifests in various ways:

    a) Technology and Innovation

    Large companies invest heavily in the research and development of new agricultural technologies and methods. When it comes to accessing these innovations, small and medium-sized farmers are increasingly dependent on the offers and conditions dictated by large agricultural corporations.

    b) Market Access and Distribution

    Large companies control a significant portion of global food supply chains. In most cases, small and medium-sized farmers rely on these established distribution channels to bring their products to market, which increases their dependence on the major players.

    c) Financial Support and Resources

    Large corporations and financial institutions often provide the financial support and resources needed to modernize and scale agricultural production. This can put small and medium-sized players in a position where they need loans and investments from these large players. Such financial dependencies could limit farmers‘ freedom of choice in terms of farming methods, crop varieties and market access.

    d) Regulations and Standards

    Large companies often have the resources to fulfil and even help shape strict regulations and quality standards. Small and medium-sized companies have to adapt to these standards, which further increases their production costs and dependence on the large companies that set these standards.

    In summary, the „Food Chain Reaction” exercise appears to have a strong preference for global, centralized solutions. The scenario and design of the exercise suggest a bias that gave less consideration to potential national or decentralized approaches, raising questions about the objectivity of the exercise.


    1.5. From Simulation to Reality

    The best way to predict the future is to invent it.
    Alan Curtis Kay – American computer scientist

    The „Food Chain Reaction” exercise simulated a global food crisis resulting from a combination of climatic, economic and geopolitical factors for the period from 2020 to 2030. Although the exercise focussed on a climate catastrophe, many of the scenarios played out in the simulation can be transferred to actual events in the period from 2020 to 2024.

    The era of volatility was ushered in in 2020. While in the simulation it is caused by climate change and extreme weather events in the period 2020-2022, in reality we experienced the impacts of the Covid-19 pandemic.

    We face an impending global food emergency of unknown, but likely very large proportions. The outbreak of the COVID-19 pandemic and the control and mitigation measures enforced worldwide, combined with the massive economic impacts of these necessary measures, are the proximate causes of this emergency. Conflict, natural disaster, and the arrival of pests and plagues on a transcontinental scale all preceded COVID-19 and serve as additional stresses in many contexts. But there are also deep structural problems in the way our food systems function, which we can no longer ignore.“

    is stated in the UN document „The Impact of COVID-19 on Food Security and Nutrition“ from June 2020.

    The COVID-19 pandemic had far-reaching impacts on global food supply chains from 2020 to 2022. One of the most significant consequences was the disruption of supply chains. Lockdowns, border closures, and quarantine measures led to logistical challenges worldwide, severely affecting the transportation of food and agricultural products. This caused delays, shortages, and significant price fluctuations. Additionally, farmers in many countries faced an acute labor shortage as COVID-19-related restrictions severely limited access to seasonal workers. These workers were essential for the harvesting and processing of food.

    The economic impacts of the pandemic drove food prices up, especially in countries with low domestic production. In some countries, there were also supply shortages of imported food. Millions of people, particularly in developing countries, lost their sources of income and could no longer afford basic food items. Agricultural production also suffered due to the effects of the pandemic. Production losses were caused by labor shortages, disrupted supply chains, and limited access to resources such as seeds and fertilizers. 

    Small farmers, especially in developing regions, who often come from economically precarious backgrounds, were the main victims of this crisis. The collapse in trade, the closure of village markets and domestic travel restrictions posed a real threat to their livelihoods.

    „To assist smallholder farmers in Asia, Africa and Latin America who are facing additional challenges resulting from COVID-19, Bayer, as part of its societal engagement activities and through its new „Better Farms, Better Lives” initiative, is providing seeds and crop protection inputs as well as assistance with market access and support for health and safety needs.

    Bayer is committed to helping more than 100 million smallholders in low- and middle-income countries by 2030. The immediate COVID-19 response through the „Better Farms, Better Lives” initiative complements on-going smallholder support which will aid in mid-term recovery as well as long-term resilience. Additionally, in collaboration with others and to ensure the greatest successful impact for smallholders, Bayer will work and expand its partnerships with governments, internationally recognized NGOs and local organizations; create a Smallholder Center of Excellence for sharing successes; provide accelerated access to digital farming tools to increase capabilities; scale up existing and new value chain partnerships and further expand value chain partnerships across Asia-Pacific countries.”

    is stated in Bayer AG’s press release from June 17, 2020.

    This noble gesture is a practical demonstration of how smallholders and governments are increasingly becoming dependent on a few global players through partnerships. Bayer’s contribution titled „Can Food Supply Chains Cope with COVID-19?” from May 2024 contains further clear statements in this regard:

    We cannot go back to local-only food chains. We are living in a global food system. We must develop intelligent global food systems which are sustainable, circular and inclusive for smallholder farmers.

    One solution to help achieve this is the greater use of technology and data. This pandemic is going to have long-term effects on every part of our world. There will be greater use of technology, such as robotics in picking products, warehouses and cold storage areas.

    We will be collecting more at every point to gather information as food goes through the supply chain. The more data we have, the more accurate models and better forecasting we can make.

    Due to COVID-19 we are going to rethink our current food systems. This offers opportunities for transitions, making our current systems more resilient and sustainable, and global systems more intelligent. To make this happen, strong and effective collaborations between academia and the private and public sectors are needed.

    Whether these statements can be interpreted as „Resistance is futile. You will be assimilated” depends on how the inevitable adaptation of traditionally local and less technology-intensive smallholders to these new standards takes place. The key question is how this integration is designed – whether it respects the autonomy and traditional knowledge of the smallholders, or if it indeed appears to be a forced adaptation. The near future will reveal the answer.

    Between 2022 and 2024, the food crisis continues to escalate in the Food-Chain-Reaction simulation. Key drivers of the crisis include a drastic increase in oil prices, growing unrest, rising migration, further increases in food prices, as well as heat stress in Russia and Ukraine, which reduces grain reserves.

    In the real world, the controversial debate about the future geopolitical alignment of Ukraine escalated in February 2022 into an open armed conflict between Russia and Ukraine, with the EU and NATO indirectly involved.

    The war between Russia and Ukraine has had significant impacts on global food supply since 2022. Both countries are major exporters of wheat, corn, and sunflower oil, and before the war, they together accounted for nearly a third of global wheat exports. Due to the military conflict and blockades in the Black Sea, these exports were severely disrupted, particularly during 2022-2023, leading to a global shortage of grain. Regions like the Middle East and North Africa, which are heavily dependent on imports, felt the effects in the form of rising prices and increased food insecurity.

    The shortage of grain has led to a sharp rise in food prices worldwide, which has hit low-income households particularly hard. In addition, the war has placed a heavy burden on the fertilizer market, as Russia is a major exporter of fertilizers and their components. The sanctions against Russia and the resulting supply chain disruptions led to higher fertilizer prices, forcing many farmers to use less fertilizer, reducing crop yields and further exacerbating the global food crisis.

    The crisis has also had far-reaching political and economic consequences. Sanctions against Russia and trade restrictions have further strained global supply chains for agricultural products and financial flows. Many countries, particularly developing nations that rely on imports from Russia and Ukraine, are now grappling with food insecurity and social unrest. In some regions, this has led to humanitarian emergencies.

    The war in Ukraine continued to contribute to an increase in prices and supply bottlenecks for important energy sources such as gas and fuels (petrol, diesel). This resulted in noticeable additional costs for farmers and companies in the food industry. As a result, producer prices for agricultural products rose significantly, particularly in Europe. Together with the negative impact on consumer sentiment caused by record inflation, the pressure on companies in the agricultural sector increased considerably.

    As a result of this development, the EU extended the crisis aid for farmers in May 2024. The temporary crisis framework had originally been introduced two years ago after the Russian invasion of Ukraine. The financial support measures aim to cover the additional costs for energy and fertilizers that farmers have incurred due to the crisis. While these government aids provide valuable support to farmers during acute crises, their long-term provision could lead to a dependency on state assistance. If farmers are repeatedly reliant on subsidies to survive economically, this could impair their ability to operate independently of state interventions. In this context, the Tagesschau reported as follows in December 2022:

    At 450 billion euros, agricultural subsidies are the largest item in the EU budget.

    Every year, the European Commission distributes more than 50 billion euros in agricultural subsidies. Germany benefits the most after France and Spain. More than 400,000 recipients in Germany have received a good 53 billion euros since 2014. German farmers have received an average of 127,000 euros over the past eight years. But the gap is wide: the top one per cent of recipients received almost a quarter of all subsidies – in other words, more than twelve billion euros or just under 30,000 euros per farm per month. In contrast, the entire bottom half of small farms and farmers together received less than four billion euros. That is just 200 euros per farm per month.

    The problematic trends are evident throughout Europe. In the eight countries analysed, the main beneficiaries of subsidies are large companies and public institutions. In all countries, a few large recipients receive the most money. The distribution is often even more unequal than in Germany. The top one per cent of recipients in Europe collect more than a third of all subsidies.”

    The war in Ukraine has exacerbated the economic situation of many EU farmers and further increased their dependence on state aid. This development could lead to the agriculture sector becoming even more integrated into state support mechanisms in the long term. Government programs and subsidies may be tied to conditions that force farmers to adopt certain technologies or practices, making it easier for governments to enforce their agricultural policy goals.

    In times of crisis, such as during the Ukraine war, acceptance of state intervention and the narratives associated with it tends to increase. These circumstances provide an opportunity to position the transition to „greener” agriculture or the introduction of new technologies as necessary developments. Critical voices against such narratives are often seen as unproductive or obstructive to the common good in this context. However, in the long term, an increased reliance on state subsidies could limit farmers‘ flexibility and hinder their ability and willingness to pursue independent alternatives.

    This dynamic makes it easier for governments to enforce agricultural strategies and narratives, making the implementation of top-down approaches in agriculture, as practiced during the „Food Chain Reaction” exercise, almost inevitable.

    2. The Fourth Industrial Revolution and Shaping Food Systems

    The „Food Chain Reaction” exercise modeled a series of crisis events that threatened the stability of the global food system, rapidly leading to food shortages, price increases, and political unrest in an interconnected world. The main goal was to raise awareness among high-level actors in politics and business about solutions in the field of global governance.

    In this context, the World Economic Forum (WEF) published the report „Innovation with a Purpose: The role of technology innovation in accelerating food systems transformation” in 2018, in collaboration with the consulting firm McKinsey. The report builds on insights and scenarios from the „Food Chain Reaction” exercise and proposes specific technological and policy measures that could fundamentally transform the global food system.

    The document emphasizes the central role of technology and innovation in reshaping global food systems to address pressing challenges such as food insecurity, climate change, and the promotion of sustainable development. In particular, the rapid population growth in urban areas increases the demand for food and alters consumption patterns, putting pressure on agricultural resources and further amplifying existing inefficiencies in production and distribution.

    The authors describe agriculture as a sector with dual responsibility: on the one hand, it significantly contributes to climate change, and on the other, it is heavily impacted by its consequences, including soil erosion, water scarcity, and the loss of biodiversity. These issues exacerbate food insecurity and malnutrition, which persist despite global progress. Additionally, significant losses along the value chain are highlighted, further amplifying the unequal distribution of resources.

    Innovative technologies are highlighted as crucial solutions. It is emphasized that digital approaches such as Big Data, Artificial Intelligence (AI), and the Internet of Things (IoT) can help make agricultural processes more efficient, optimize resource use, and enable data-based decisions in real time. Advances in biotechnology, particularly through techniques like CRISPR-Cas9 for precise DNA modification, also offer new possibilities for developing more resilient plant and animal species that are better adapted to diseases and climate change. These developments make significant contributions to sustainable growth and a future-proof agricultural sector.

    Additionally, the authors point out that innovative production methods such as vertical farming, lab-grown meat, and alternative protein sources (e.g., insects) could offer promising opportunities to make food production more sustainable and resource-efficient. Blockchain technology is also described as a potentially powerful tool to enhance transparency and traceability in global supply chains. This could not only reduce fraud and contamination but also strengthen consumer trust in the origin and quality of food products.

    Innovation with purpose (Figure 4): Combinations of 4IR technologies can enable innovation to solve challenges in food systems

    The World Economic Forum (WEF) is an influential global organization and provides an important platform for the exchange of ideas and strategies between political, economic and social leaders. It plays a central role in shaping global agendas. Through reports, studies and initiatives, the WEF addresses important topics such as climate change, digitalization, social inequality and the future of work. Many governments and companies align their policies and strategies with the recommendations and discussions initiated by the WEF.

    The WEF also promotes collaboration between governments and the private sector. These partnerships significantly influence policy decisions and economic developments. Given this far-reaching impact, it is worthwhile to closely examine some of the solutions proposed in the aforementioned WEF report.

    2.1. Changing Demand

    a) Alternative Proteins

    The authors of the report emphasize that an adequate supply of protein is essential for a healthy diet. With the global population growing to almost 9 billion people and changing eating habits due to increasing prosperity and urbanization, the demand for animal protein is increasing worldwide. Although this development could improve the nutritional situation of underserved people, it brings with it considerable environmental problems. As the report points out, „livestock today account for 15% of greenhouse gas emissions, consume 10% of the world’s fresh water and use more than one quarter of the planet’s ice-free surface”.

    To address these challenges, the WEF considers the supply of safe, affordable, and sustainably produced protein sources to be crucial for the future. Alternative proteins from more environmentally friendly sources such as insects, plants, aquaculture, and cell cultures could represent promising alternatives to conventional proteins for both human and animal consumption.

    Innovation with Purpose: Alternative Proteins

    To ensure consumer acceptance of these alternative protein sources, the report recommends combining national media campaigns and public awareness initiatives with targeted regulations and financial incentives. Additionally, technological advancements should guarantee that such products are at least equivalent in terms of nutritional value, taste, and texture, while being offered at competitive prices.

    No sooner said than done: „Plant-based protein sources will become increasingly important for a plant-centred diet. The German government will examine measures to effectively support this development.“ … „Although sales of alternatives to animal-based foods have increased in recent years, they are still at a relatively low level. Promoting innovation for producers could lower barriers to market entry, increase competition and ultimately lead to lower prices for consumers. In addition, supporting the matching of growers and processors can also make an important contribution. Both aspects are addressed in the BMEL’s announcement on alternative protein sources for human nutrition“, can be read in the current nutrition strategy paper (pages 23 and 25) of the Federal Ministry of Food and Agriculture (BMEL).

    European agriculture ministers are currently deeply engaged in discussions about how to introduce „novel foods” without losing sight of „culinary tradition” – a topic that is sparking intense debate. The term „novel foods” is broad and encompasses various types of products, including edible insects and vegetarian alternatives to dairy and meat products. According to the European Commission, the consumption of vegetarian alternatives to meat, dairy, and seafood has quintupled since 2011 and is expected to continue rising. The EU has so far approved the sale of four insect species, with at least eight more applications currently under review. On July 26, 2024, the first EU application for the sale of lab-grown meat was submitted.

    While discussions among EU agriculture ministers about „novel foods” remain controversial, many of the leading agricultural and food producers in the EU believe that innovations and traditions can coexist. They are convinced that new food options do not necessarily threaten the culinary culture of the EU. Italian Agriculture Minister Francesco Lollobrigida, who has reaffirmed his opposition to lab-grown meat, succinctly describes the dilemma facing EU politicians: „I don’t actually see the desire to slow down any process, but to know in which direction it is going.”

    The direction in which it is heading is clearly outlined in the Official Journal of the European Union of January 3, 2023:

    (7) In its scientific opinion, the Authority concluded that Acheta domesticus (house cricket) partially defatted powder is safe under the proposed conditions of use and use levels. Therefore, that scientific opinion gives sufficient grounds to establish that Acheta domesticus (house cricket) partially defatted powder when used in multigrain bread and rolls, crackers and breadsticks, cereal bars, dry pre-mixes for baked products, biscuits, dry stuffed and non-stuffed pasta-based products, sauces, processed potato products, legume- and vegetable- based dishes, pizza, pasta-based products, whey powder, meat analogues, soups and soup concentrates or powders, maize flour-based snacks, beer-like beverages, chocolate confectionary, nuts and oilseeds, snacks other than chips, and meat preparations, intended for the general population, fulfils the conditions for its placing on the market in accordance with Article 12(1) of Regulation (EU) 2015/2283.

    In its report, the authority also states that these novel foods contain proteins that can potentially trigger allergies. Although the authority does not yet have any clear evidence of serious allergic reactions, the possibility that consumption could trigger allergies is pointed out.

    The potential risk has been known for years. In a scientific article from 2018 titled „The house cricket (Acheta domesticus) as a novel food: a risk profile”, an international research team emphasizes that crickets can cause allergic reactions in certain individuals. This is due to the fact that crickets and other arthropods, such as shrimp, crabs, and lobsters, contain similar proteins. These proteins can trigger similar reactions in people with allergies. As insect consumption is expected to increase worldwide, there could also be an increase in allergic reactions to these insect species.

    In addition, crickets also contain specific allergens such as hexamerin B1, the allergenic potential of which is not yet fully understood. To avoid health risks, crickets and products made from crickets should be clearly labelled in shops. It is important to realise that scientific findings that apply to one insect species are not automatically transferable to related species. Therefore, a separate risk assessment should be carried out for each commercially farmed insect species.

    As more products with edible insects enter the market, it is likely that new allergens associated with crickets and other edible insects will be discovered. Additionally, the development of new processing techniques for insect products could introduce new chemical or microbial hazards.

    New insights on this topic are provided by the recent analysis „The Allergen Profile of Two Edible Insect Species – Acheta domesticus and Hermetia illucens”. The study has identified several allergens in insects that could cause problems for allergy sufferers, especially those who are already allergic to crustaceans. Additional proteins were also discovered that could trigger allergic reactions but have not yet been compared with known crustacean allergens. These new allergens need to be studied further to understand how they affect the body and how to better diagnose and treat them.

    The scientists have also shown that standard allergen test kits for crustaceans cannot be used to test insect products for allergens. Therefore, in future, the labelling of foods containing insects should ensure that these specific allergens are taken into account to avoid unwanted allergic reactions. This is particularly important because in some regions of the world up to 4% of people are allergic to crustaceans.

    Critics view the EU Commission’s decision as an attempt to present the consumption of Acheta domesticus as safe despite potential health risks, in order to promote a more diverse diet and the introduction of sustainable protein sources. Supporters, on the other hand, argue that the potential benefits, such as access to sustainable protein sources, could outweigh the risks. However, this does not mean that the risks are being ignored; rather, they are considered acceptable as long as the prescribed safety measures are followed. Whether the saying „The end justifies the means” applies in this case depends on whether one is personally affected by the acceptable risks.

    The health risks for the global population are at the top of the World Health Organization’s (WHO) agenda. The video message from the WHO Director-General, „Our food systems are harming the health of people and the planet”, illustrates the WHO’s perspective on food systems:

    b) Inseparable Connection between the Health of People, Animals, and the Environment

    According to the WHO, population growth and the increasing proximity of humans to wild and domestic animals are increasing the risk of diseases being transmitted from animals to humans. According to the World Organization for Animal Health (OIE), around 60% of known infectious diseases in humans are of zoonotic origin, as are 75% of the pathogens that cause emerging diseases. The Food and Agriculture Organization of the United Nations (FAO) also points out that intensive livestock farming contributes significantly to environmental pollution. It causes more greenhouse gas emissions than global transport and exacerbates problems such as deforestation, high water consumption and soil contamination.

    In addition, the excessive use of antibiotics and the occurrence of zoonoses increase health risks for humans. Deforestation deprives animals of their natural habitats and brings them closer to human settlements, further increasing the risk of zoonotic transmission. Furthermore, global travel and international trade facilitate the rapid spread of diseases across borders, meaning that an outbreak in one country can quickly have worldwide implications.

    This inseparable connection between the health of humans, animals, and the environment is embodied in the WHO’s One Health approach, which changes the way governments, organizations, and institutions address and respond to health issues.

    One-Health

    Transforming food systems is therefore essential, by shifting towards healthier, diversified, and more plant-based diets”, is the WHO’s motto. The Bill and Melinda Gates Foundation is one of the largest donors to the WHO.

    c) Synthetic Foods

    How Bill Gates envisions the transformation of food systems is outlined in detail on his blog, GatesNotes, as follows:

    Our plan can’t be to simply hope that people give up foods they crave. After all, humans are wired to want animal fats for a reason – because they’re the most nutrient-rich and calorie-dense macronutrientin the same way we’re wired to crave sugar for an instant energy kick. What we need are new ways of generating the same fat molecules found in animal products, but without greenhouse gas emissions, animal suffering, or dangerous chemicals. And they have to be affordable for everyone.

    Savor, a start-up supported by Gates, summarizes what these new approaches could look like in concrete terms.

    Can’t we just eat the fossil fuels?

    The thought that shifting humans from eating animals and plants to eating fossil fuels could enable the reclamation of all of those lands – and the ensuing sequestration of vast amounts of atmospheric carbon – was powerful.

    The fats we make at Savor can be produced from fossil fuels like natural gas or from captured CO2 and green hydrogen. We have our work cut out for us both technically – making high purity and high-performance fats – and commercially – learning how to share our products and technology with the world in a way that addresses inevitable questions and concerns about safety and health.

    The following promotional video from Savor illustrates where the journey is heading:

    Savor’s process enables the production of fats and other food components without traditional agricultural methods. Using CO₂ from the air and hydrogen from water, these elements are converted into fats through a thermochemical reaction. This approach represents an example of the next generation of „synthetic” foods, based on innovative processes.

    A comprehensive overview of the broad spectrum of novel synthetic foods and the associated potential risk factors can be found here.

    d) New Foods from the 3D Printer

    Savor is not alone in its efforts to save the planet. The Austrian start-up Revo Foods has opened the „Taste Factory” in Vienna, a production facility for additive food manufacturing based on a specialized 3D printing process. With an impressive capacity of up to 60 tons per month, it is the largest facility of its kind in the world. „We are pushing the boundaries of food technology” is the company’s motto:

    The comparison of 3D-printed food with the food replicator from the Star Trek universe might be tempting, but it is still technologically quite a distance away. In the February 23, 2024, episode of the SWR knowledge program „How Does Food Replication Work on Starship Enterprise?”, Dr. Hubert Zitt expressed a mix of enthusiasm and caution:

    But we are on a path with the production of food using 3D printers. Now, I don’t want to draw a direct comparison, but I do believe that in the future, we will increasingly produce food in this way. However, to be honest, I personally don’t wish for that. I love a good, juicy steak – if one is still allowed to say that today – and I don’t want to embrace the idea of having food artificially produced by some chemical companies.

    Handelsblatt provides an up-to-date overview of the top 50 out of 300 young companies headquartered in Germany that are positively changing the food industry or global nutrition. Further examples can be found here.

    What may still seem like a mere idea to many today is only the beginning of a profound shift in the demand of the general population. However, this transformation process will develop gradually and will not take place abruptly, but rather step by step over the coming years.

    Within the framework of public-private partnerships (PPPs), governments will gradually create political framework conditions that promote such innovations and at the same time support sustainable practices, for example through subsidies, tax incentives or regulatory adjustments.

    The growing demand for alternative proteins and „novel foods” is likely to have negative consequences for the livelihoods of livestock farmers and for the economies of countries that are heavily dependent on livestock farming. The widespread introduction of such technologies could further destabilise traditional agricultural structures. Smaller farms in particular are likely to suffer from the increasing pressure of industrialization and technological upheaval, which could pose significant social and economic challenges.

    The cultivation of plants for alternative proteins, such as soy or peas, could lead to the expansion of monocultures, which reduce biodiversity and increase the risk of soil degradation, pest infestations, and diseases. Although alternative proteins are generally considered more environmentally friendly, their production can still have negative environmental impacts if not conducted sustainably. For example, the intensive use of fertilizers and pesticides in the cultivation of protein crops or the high energy consumption in the production of lab-grown meat could have negative consequences.

    As alternative proteins and synthetic foods are still relatively new, there are not yet sufficient long-term studies to fully understand their health effects over an extended period. Although chemically synthesized fats are structurally similar to conventional fats, small differences or impurities in the manufacturing process could have health consequences that may not be recognized until later. Many alternative proteins, especially in meat substitutes, are highly processed and often contain additives, stabilizers, salt, and fat. These ingredients can have long-term negative health effects, particularly when consumed in large quantities. Additionally, these proteins often lack important nutrients that naturally occur in animal products, such as vitamin B12, iron, and omega-3 fatty acids, which can lead to deficiencies without proper supplementation. Furthermore, certain alternative proteins carry an allergy risk. Soy or insect proteins can trigger allergic reactions in sensitive individuals, and novel proteins from algae or fungi could also cause unexpected allergies.

    Potential risk factors and various dangers of novel synthetic foods. [FIGURE 2]

    This shift in demand requires careful planning to minimize negative impacts on agriculture, rural communities, and human health. A crucial factor will be whether the responsible stakeholders address these risks seriously or accept them as unavoidable in order to accelerate progress. The balance between innovation and the protection of existing structures will ultimately determine the success of this transformation process.


    2.2. Digitalization Across the Entire Value Chain

    The authors of the WEF report paint a picture of an increasingly interconnected world, where the demand for more efficient, transparent, and traceable supply chains is growing. Consumers today not only want to know where their food comes from, but also want to be assured that it has been sourced in an ethical and sustainable manner. This is where various digital technology blocks come into play, which have the potential to fundamentally change the way we produce, transport, and consume food.

    Innovation with purpose (Figure 3): Combinations of 4IR technologies can enable innovation to solve challenges in food systems

    Agriculture and IoT

    In the vision of the World Economic Forum (WEF), the Internet of Things (IoT) networks sensors and actuators that collect and exchange data on soil quality, plant condition and environmental conditions in real time. This technological development is revolutionizing agriculture. The data collected enables precise decisions to be made that use resources such as water, fertilizers and pesticides more efficiently, increase yields and minimize environmental impact at the same time. Technologies such as intelligent irrigation systems, GPS-controlled tractors, drones and advanced sensor technology are not only making agriculture more efficient, but also more sustainable, the authors of the study emphasize.

    In the field of animal husbandry, digital technologies are aimed at improving animal welfare and health through continuous monitoring. Blockchain technologies can also ensure transparent traceability throughout the entire production chain. Additionally, satellite systems support the monitoring of ecologically valuable areas as well as compliance with biodiversity goals.

    Supply Chain Management

    In the food supply chain, IoT enables precise monitoring and tracking of each step – from harvest to delivery. Factors such as temperature and humidity during transport and storage can be specifically optimized to ensure the freshness and quality of products. This allows for efficient management of transportation routes, controlled handling of cold chains, and reduction of losses due to spoilage. Automated systems help reduce labor costs and optimize resource use, while real-time data improves planning and better coordinates supply and demand. Bottlenecks can be identified more quickly, and more accurate forecasts enable more efficient resource utilization.

    Competitive Advantage and Future Perspectives

    Investing in digital technologies increases productivity, reduces waste and cuts costs. These developments promote sustainability, efficiency and transparency while ensuring the competitiveness of farmers. The use of digital solutions not only improves current performance, but also secures the long-term future of agriculture – a central idea behind this strategic direction.

    A true win-win situation for the environment, consumers, and businesses – at least in theory.

    According to the Data Bridge Market Research report, the global market for IoT in agriculture will reach a volume of 32.71 billion US dollars by 2031, with an annual growth rate of 10.1%.

    Global Internet of Things (IoT) in the agricultural market

    Technological progress and increasing competitive pressure are accelerating the transformation of agriculture, further reinforced by government subsidies and regulatory requirements. A key trend is the growing legal pressure to implement digital technologies such as the Internet of Things (IoT) and precision agriculture. More and more governments are creating frameworks that promote these innovations in order to ensure high standards in environmental protection, animal welfare, and food safety.

    Political Framework: CAP 2023-2027

    The CAP 2023-2027 (Common Agricultural Policy) represents the latest reform of European agricultural policy, focusing on sustainable, environmentally friendly, and social standards. This policy, developed jointly by the EU Commission, Parliament, and Member States, aims to modernize European agricultural systems while ensuring the long-term competitiveness and stability of agricultural enterprises.

    CAP 2023-2027: The ten key objectives

    The CAP 2023-2027 introduces important innovations. A central component is the so-called Eco-Schemes, through which around 25% of direct payments to farmers are linked to environmentally friendly practices. These include measures for soil protection, promoting biodiversity, and sustainable water management.

    Another important aspect is conditionality, which requires all farmers to comply with certain environmental and climate standards in order to remain eligible for funding. These include the preservation of permanent grassland and the protection of wetlands in order to protect valuable ecosystems. Social conditionality has also been newly introduced, which is aimed at safeguarding labor rights and fair working conditions in agriculture and thus represents a further step towards social sustainability.

    This reform represents a significant change in financial support for the agricultural sector by restructuring the previous flat-rate direct payments in favour of environmental and social support criteria. While farmers previously received largely flat-rate direct payments, a significant proportion of this financial support is now linked to participation in environmentally friendly measures (eco-schemes) and compliance with certain standards (conditionality).

    The CAP 2023-2027 sets clear requirements for environmental standards, sustainability and efficiency, which make the use of IoT and other digital systems almost indispensable. The automatic collection and reporting of relevant data simplifies compliance with CAP requirements and significantly reduces bureaucracy.

    Experimental Fields

    The practical application of various digital technologies is currently being explored and demonstrated on so-called experimental fields on farms in Germany.

    The Experimental Fields at a Glance [Federal Ministry of Food and Agriculture (BMEL)]

    Further information on this topic is provided in the promotional video „Climate, Weather, Harvest and Yield: What do Digital Experimental Fields in Agriculture achieve?” by the Federal Ministry of Food and Agriculture (BMEL):

    In summary, the CAP 2023-2027 pursues ambitious environmental and sustainability goals that can be efficiently implemented through digital systems. This digital transformation proves to be a crucial factor for the future viability and competitiveness of the agricultural sector. Therefore, the CAP 2023-2027 can be seen as a political instrument for implementing the recommendations outlined in the WEF report „Innovation with a Purpose: The Role of Technology Innovation in Accelerating Food Systems Transformation”.

    The analysis report „Digital Agriculture Market Size & Share Analysis – Growth Trends & Forecasts (2024 – 2029)” summarises the global development as follows:

    The increasing awareness about the benefits of digital agriculture in optimizing agricultural production has resulted in a great boom in the agriculture market. With the growing food demand, owing to the increasing population, the adoption of digital agriculture tools is inevitable.

    The United States is expected to invest a significant share in facilitating the ecosystem for future foods.

    The United Kingdom government, in its industrial strategy, has put artificial intelligence (AI) aimed at escalating crop productivity. The country has committed to boosting R&D spending to 2.4% of the GDP by 2027. Furthermore, a new EUR 500 million project has been announced in Cambridge, which seeks to cement Britain’s position as an innovator in the growing agri-tech industry. The development will accommodate up to 4,000 employees and will bring together agricultural and tech companies to spearhead a center of global agricultural innovation and productivity.

    The adoption of technology in Europe and North America has increased crop productivity. For instance, in June 2022, Idele (Institut d’Elevage), France, developed a data-based online application called CAP’2ER, with thirty sets of activity data entered into the program to determine agro-ecological indicators. This application analyzes five sets of databases, such as livestock, manure management, fields, feed, and energy consumption, by analyzing total annual fuel consumption, animal productivity (fertility, growth, and marketing age), feed purchased, manure quantities and management, number of trees and thickets, shrubs, hedges, grass strips, stone piles and stone walls, and water bodies on the farm.

    The Chinese agricultural sector has undergone a groundbreaking revolution with respect to the adoption of smart farming practices in recent years. In 2020, the Chinese central government launched a pilot project named digital village”, promoting the use of information technology to stimulate domestic consumption, leading to a boom in the mobile internet-driven economy.

    Similarly, the rising demand for digitization in Indian agriculture is well acknowledged, with efforts being made toward digitizing the prevailing value chain. In September 2021, the Union Minister of Agriculture & Farmers Welfare launched the initiation of the Digital Agriculture Mission 2021-2025… The Digital Agriculture Mission 2021-2025 aims to support and accelerate projects based on new technologies, like AI, blockchain, remote sensing, and GIS technology and the use of drones and robots.

    Digital Agriculture Market: Growth Rate By Region (2022-2027) [Mordor Intelligence]

    Digital agricultural technologies primarily benefit large-scale farms, as they can better absorb the high investment costs through economies of scale and have the necessary resources to manage large volumes of data. Such enterprises can distribute the costs of technologies like sensors, drones, and specialized software across their production more effectively, thereby increasing the profitability of their investments. Smaller farms, however, often face the challenge that the high costs of technology are difficult to justify given their limited production volumes. This results in a digital divide that structurally disadvantages small and medium-sized farms compared to their larger competitors.

    Moreover, large-scale farms often benefit from better access to capital and government subsidies for digitization, while smaller farms have more limited access to such resources. Another challenge for smaller farms is their reliance on external technology providers, as they lack in-house resources for managing and maintaining digital systems, leaving them contractually tied to a few suppliers. This dependency further restricts their flexibility and autonomy.

    With the efficiency gains achieved by large-scale farms through digital solutions, market price pressure is also increasing. Smaller farms, unable to realize similar advantages, risk being driven out of the market due to their higher production costs, leading to further consolidation in the agricultural sector. Even in niche markets such as organic and regional products, competition intensifies due to digitization. Large-scale farms, leveraging digital systems, are increasingly able to offer premium products that have traditionally been a unique selling point for smaller farms.

    Overall, the digital transformation in the agricultural sector primarily benefits large, well-funded farms, while small and medium-sized farms face existential challenges. To ensure the survival of these smaller farms, targeted support measures and broader access to digital technology are necessary. These efforts would help preserve and enhance their competitiveness and unique strengths in the evolving agricultural landscape.

    Digitalization in the agricultural sector presents both advantages and disadvantages for consumers. The economies of scale achieved by large farms could lead to lower food prices, but this may also threaten the survival of small and medium-sized farms, potentially reducing the diversity of regional and traditional products. While larger suppliers are increasingly incorporating premium and organic products into their range, the displacement of smaller farms could negatively impact product selection and price stability in the long term. The digital transformation partially supports sustainability goals, but it remains uncertain whether it will meet consumer demands for environmental friendliness, particularly if economic constraints lead to intensified production. Ultimately, the digital divide between large and small farms could result in reduced diversity and less competition, making the food supply less dynamic and varied for consumers.


    2.3. Follow the Science – Next-Generation Biotechnologies and Genomics

    The drive for increased efficiency and optimization does not stop at food production. The WEF report places particular emphasis on the next generation of biotechnology and genomic research. What does this mean?

    Innovation with purpose (Figure 3): Combinations of 4IR technologies can enable innovation to solve challenges in food systems

    Historically, there have been three main methods of seed improvement: open pollination, hybridization and genetic modification.

    I – Open Pollination

    Open pollination is considered one of the most natural and oldest breeding methods. It occurs without human intervention, as plants are pollinated through natural processes such as wind, insects, or animals. This method promotes a wide genetic diversity within a plant population, as pollen from different individuals is combined, leading to natural selection. It has long been significant in many ecological and traditional farming systems, where genetic diversity and environmental adaptation play an important role. However, it is often considered less efficient when it comes to specifically promoting certain traits in plants, as is the case with hybridization or genetic modification. For this reason, open pollination has lost its place in modern agriculture, especially in large-scale farms, as it is less controllable compared to more targeted breeding methods.

    II – Hybridization

    Hybridization is a traditional breeding method in which two different plant species or varieties are crossed to produce offspring with specific traits such as disease resistance, higher yields, or better flavor. This process occurs either through natural or controlled pollination, where the genetic information of both parent plants is combined. One major advantage of hybridization is that it is targeted and controlled, allowing breeders to make more accurate predictions about the traits of the offspring. Due to its long history and extensive research, this method is considered safe and reliable.

    However, hybrid breeding has some disadvantages that need to be considered. One issue is that the offspring are often unstable. To preserve the desired traits, breeders must regularly make new crosses. The so-called heterosis effect leads to the first generation (F1) producing particularly robust plants with higher yields, but this advantage decreases in subsequent generations as the hybrids do not remain stable. As a result, farmers are forced to buy new seeds every year, which increases costs and strengthens their dependence on seed companies.

    Another problem is the loss of genetic diversity. By continuously crossing only a few varieties, other potentially resilient gene pools are overlooked, making the plants more susceptible to pests, diseases, and changes in the environment. This reduces their ability to adapt to new challenges.

    The development of hybrid seeds is capital-intensive and requires significant investments in research and breeding, which increases production costs. This can be particularly problematic for smaller farmers, as they may not be able to afford the expensive hybrid seeds. Additionally, many hybrid seeds are not suitable for replanting, meaning that farmers have to purchase new seeds every year.

    The ecological impacts of hybrid breeding are also a concern. The increased use of hybrid plants could reduce the diversity of local varieties and increase the risk to biodiversity. Additionally, the high use of fertilizers and pesticides often associated with hybrid breeding can have negative effects on pollinators like bees.

    Critics of hybrid breeding argue that the focus is too heavily placed on economic efficiency, while sustainability and ecological compatibility are often neglected. Yield and resilience are often prioritized over taste, nutritional content, and diversity.

    Although hybrid breeding has enabled progress in agriculture, it also brings with it challenges that go beyond economic aspects and affect ecological and social dimensions.

    In the search for more cost-effective and faster methods of breeding crops with favorable characteristics, there is no way around genetic modification.

    III – Genetic Modification

    A distinction is made between traditional and modern techniques.

    Traditional Genetic Modification: Mutation Breeding

    Mutation breeding, also known as mutagenesis, is a traditional breeding method in which mutations are induced in the genetic material of plants through the use of mutagenic chemicals or ionizing radiation. Chemical substances or rays such as gamma or neutron radiation trigger random mutations. Afterward, the resulting mutants are screened for useful genes or traits, which are then crossed into existing varieties.

    Between 1965 and 1990, mutagenesis, in particular by atomic radiation, was systematically used in plant breeding to achieve new characteristics that would not have been possible with classical breeding methods. Chemically induced mutagenesis is still used in plant breeding today. According to the International Atomic Energy Agency, by 2017 more than 3.200 new plant varieties had been developed using mutagenesis.

    Mutation breeding: Randomness as a method

    In the EU, plants that have been modified by mutagenesis – i.e. the use of radiation or chemicals to induce mutations – are legally categorised as „genetic engineering”. However, they are exempt from most regulations for genetically engineered products. How did this come about?

    Until 2018, there were no legal disputes regarding how these plants should be classified. However, in July 2018, the European Court of Justice (ECJ) ruled that plants bred using mutagenic methods should also be considered „genetically modified organisms” (GMOs). The reason is that these plants have undergone a genetic alteration that does not occur naturally. As a result, they fall under the Genetic Engineering Act, but they are exempt from the usual regulations for genetically modified plants and animals. This means they are not subject to the strict requirements for cultivation, approval, labeling, and safety assessments before market release. Plants from mutation breeding are treated the same as those from traditional breeding. Aside from variety rights, there are no specific regulations. Products from plants or animals bred using classical mutagenesis can be used for food labeled „non-GMO”, even though they are legally considered genetically modified. Mutagenesis plants are also allowed in organic farming without restrictions.

    The judges of the European Court of Justice (ECJ) justified their decision with the long history of experience with mutation breeding. They believe that plants created through mutagenesis can be considered safe without further testing. Therefore, a special labeling that would allow consumers to make an informed choice is not necessary. This view was reaffirmed in a further ECJ ruling in February 2023.

    Although mutagenesis is considered a more traditional breeding method, there are still risks regarding unpredictable mutations and the potential environmental impacts.

    Mutagenesis is based on random mutations, which can cause not only desirable but also harmful genetic changes. These mutations are often difficult to control, increasing the risk of undesirable traits. Since the effects on the genetic makeup are not always predictable, this leads to uncertainty. Particularly in large breeding programs, it is challenging to monitor the resulting plants closely, which complicates regulation and can obscure potential risks to health and the environment. Additionally, plant traits may develop that disrupt the ecological balance, such as excessive resistance to environmental factors. The numerous unintended changes make mutagenesis less efficient and more costly, as many unwanted mutations must be discarded or removed through further breeding processes.

    Mutagenesis as a method of plant breeding offers advantages above all to large agricultural groups, as they have the financial and technological resources to carry out the complex research and development. The breeding of new plant species requires considerable investment in laboratories, scientists and state-of-the-art technologies – requirements that companies such as Bayer, BASF or Syngenta can fulfill. This gives these companies the opportunity to control the availability of certain plant varieties and secure important market shares, particularly in the spread of monocultures.

    Small and medium-sized farms, on the other hand, reach their limits here. Without access to the necessary resources, they can hardly benefit from mutagenesis themselves and are dependent on the purchase of licensed varieties. This often entails high patent and license fees, which increase their financial burden and promote dependence on large agricultural corporations. This dependency can not only jeopardize the economic independence of farmers, but also significantly limit their competitiveness on the global market.

    Genetic Modification: Transgenic Methods and Genome Editing

    Modern techniques of genetic modification, such as transgenic methods and genome editing, offer clear advantages over traditional mutagenesis with chemicals or radiation. The greatest advantage lies in their precision: while traditional mutagenesis produces numerous random mutations in the genome, which often have unpredictable side effects, the new methods enable targeted interventions. This precision makes the development of new plant varieties faster, cheaper and at the same time reduces the use of pesticides, as targeted resistances can be incorporated. They also allow plants to be specifically adapted to climatic challenges such as drought or saline soils, which is almost impossible to achieve with mutagenesis.

    In the transgenic method, genetic material from another species is inserted into the genome of a plant, thereby transferring characteristics that are not originally present in the target plant. For this purpose, genes from unrelated organisms, such as bacteria or other plant species, are incorporated into the genetic material of the cultivated plant. This technique can be used to integrate specific traits such as pest resistance or herbicide resistance, which give the plant advantages. A well-known example of this method is Bt corn, which is made resistant to pests by inserting a gene from the soil bacterium Bacillus thuringiensis, thus reducing the use of pesticides.

    Genetically modified organisms (GMO plants) developed using transgenic breeding methods are now widely cultivated, especially in North and South America. In countries like the United States, Brazil, and Argentina, herbicide-resistant soybeans dominate and are often used for animal feed, food production, and industrial purposes. Transgenic maize, engineered either for herbicide resistance or with the Bt gene for pest control, is also widespread in these regions, providing protection against pests like the European corn borer. In India, the U.S., and China, Bt cotton is cultivated, while herbicide-resistant GMO canola is grown in Canada and the U.S., primarily for food production and oil extraction. Additionally, herbicide-resistant GMO sugar beets are cultivated in the U.S. and Canada for sugar production. The widespread acceptance of GMO crops in these countries is largely driven by government support and associated economic benefits. In contrast, their use is significantly restricted in Europe and other regions due to stricter regulations and concerns over environmental and health risks.

    Genome editing, especially using the CRISPR-Cas9 method, differs from transgenic methods as no foreign genes are inserted. Instead, existing genes of the plant are specifically modified to promote desired traits or eliminate undesired ones without crossing the genetic boundary between species. This technique can be used, for example, for resistance to diseases or adaptation to environmental conditions such as drought. Compared to the transgenic method, genome editing is more precise and efficient. CRISPR-Cas9 allows fast and cost-effective modifications. The targeted editing of specific genes minimizes undesirable side effects and shortens the development time of new varieties.

    This technology „offers the opportunity for substantial improvements in yield, environmental and nutritional outcomes. If gene-edited seeds were adopted by 60-100 million farms by 2030, there could be 100–400 million tonnes more crops produced and 5–20 million fewer tonnes of production lost annually. Farmers’ incomes would grow by $40–100 billion and nutrition would improve for 20–100 million people that are micronutrient deficient,” the WEF report states.

    In the following promotional video, the US agricultural bioscience company Yield10 Bioscience, which specializes in the use of modern techniques for the genetic modification of crops, demonstrates how these visions are put into practice:

    The company explains in simple terms that plants are now viewed as factories whose internal processes can be specifically optimized. Similar to apps on a smartphone, certain „genetic apps” can be added to the DNA of plants like maize, rice, soybeans, or canola. These apps positively influence the metabolism and traits of the plants. The „app store” for these genetic modifications is a platform called Gene Ranking Artificial Intelligence Network (GRAIN), a big-data gene discovery platform specifically designed to optimize plant DNA.

    In many countries, such as the USA, Canada, Brazil, India, Russia, the United Kingdom, and Australia, genome editing is no longer classified as traditional „genetic engineering” and is therefore subject to less stringent regulations.

    Earlier this year, the European Parliament advocated for relaxing the strict regulations on genetically modified foods. In the future, two categories are to be introduced: plants with up to 20 genetic modifications will be treated like conventional plants, while plants with more interventions will still be subject to stricter regulations. Following the parliamentary vote, negotiations between the Member States, the European Parliament, and the Commission are now set to begin. However, the debate over new genetic engineering and its labeling in the EU is far from over.

    The video „Genetic Engineering in Agriculture: Hope or Hazard?” by the renowned Max Planck Society examines, from a scientific perspective, the most important and controversial aspects of the debate surrounding the use of genetic engineering, particularly genome editing:

    The WEF report states the following on this topic:

    That said, gene editing has its attendant risks. First, given the transaction costs of serving small-scale farms, seed innovation is likely to be geared first towards developed countries and small farms run the risk of being left out. Second, the concentration of intellectual property in relatively few hands could create economic oligopolies or monopolies that would limit the technology’s use to only a few types of seeds. This could result in less biodiversity. Third, if used irresponsibly, gene editing could present risks to human health and environmental biodiversity. Greater research and public dialogue is crucial for managing all of these risks and ensuring fair distribution and accessibility for smallholders to such innovations.

    With its recent decisions, the EU Parliament aligns with the recommendations of the WEF report in this area, paving the way for a broader adoption of genetically modified plants within the EU. The accompanying public discourse contributes to a gradual familiarization of the population with genomics and next-generation biotechnologies.

    The increased efficiency and precision of genome editing, combined with its sustainability benefits, economic pressures, and evolving regulatory frameworks, are likely to drive the widespread adoption of genetically modified crops in the medium term. Large agribusinesses, leveraging economies of scale and economic incentives, are poised to dominate markets with genetically modified varieties. This dominance may challenge smaller farms relying on conventional crops, making it harder for them to remain competitive. In the long term, this trend could lead to the displacement of traditional plant varieties, with potentially unforeseen environmental consequences. The prevalence of genetically modified crops may reduce genetic diversity, thereby jeopardizing environmental resilience and the adaptability of agricultural systems to future challenges.

    Potential risks of genome editing for genetic diversity and ecosystems

    In the article „The need for assessment of risks arising from interactions between NGT organisms from an EU perspective”, published in the Environmental Sciences Europe Journal in April 2023, the scientists draw the following conclusions.:

    New genomic techniques (NGTs) allow new genotypes and traits to be developed in different ways and with different outcomes compared to previous genetic engineering methods or conventional breeding (including non-targeted mutagenesis).

    The range of species accessible to NGTs extends far beyond applications of previously used genetic engineering techniques (EGTs). While their effectiveness may differ from case to case, these applications include a wide range of food plant species and livestock, and also non-domesticated species including trees and other plants, insects, vertebrates and microorganisms, thus extending across all domains of life …. Many of the species targeted by NGT applications also have the potential to persist and spread over longer periods of time without effective control. This may give rise to next-generation effects which were not observed in the laboratory.

    Large numbers of GE organisms derived from NGTs, including various species with a wide range of different characteristics (intended or unintended), could be released into the same receiving environment within a short period of time. Depending on the scale of the releases, their duration and the characteristics of the organisms, these NGT organisms may also intentionally or unintentionally interact with each other.

    These interactions maybe additive, synergistic, antagonistic or cumulative.

    Therefore, their intended and unintended interactions and potentially emerging hazards may need more attention and consideration compared to EGT organisms.

    Combinatorial effects typically increase the level of complexity and decrease the level of predictability.

    Therefore, if there are large-scale releases of NGT organisms into the environment in short periods of time, their impact on genetic diversity and associated ecosystems can extend far beyond what might be expected compared to natural processes and conventional breeding techniques.

    The dominance of large agricultural groups and the future of small farms

    Advances in genomics require capital-intensive technologies that are primarily accessible to large agricultural corporations. These companies could dominate plant development and further strengthen their market position through patents and intellectual property. Whether political and legal frameworks can create a balance between large agribusinesses and smaller enterprises remains uncertain, given the significant disparity in biotechnological expertise.

    Potential risks of genome editing for human health

    Genomic advances in agriculture could bring profound changes for consumers. Genomically modified crops promise benefits such as improved nutritional values, reduced pesticide residues and potentially lower prices. These products are promoted as an ethical alternative as they come from sustainable and resource-saving agriculture. In the medium term, food could also emerge that is specifically tailored to health needs, such as plants with reduced allergens or enhanced health benefits. In conjunction with personalized nutrition plans based on a consumer’s genome data, the range of foods on offer could be tailored more closely to individual needs in the future – this is the great promise of agricultural bioscience companies.

    Despite all the euphoria, the potential risks to human health should not be underestimated. The study „CRISPR Variants for Gene Editing in Plants: Biosafety Risks and Future Directions” published in the International Journal of Molecular Sciences states the following:

    Improving gene-edited plants can revolutionize agriculture, improve crop yields, and augment meal production in diverse ways. However, there are issues regarding the biosafety of these plants, mainly concerning the capability to produce accidental outcomes, comprising the emergence of novel allergens or toxins that would affect human health and the environment. Gene editing techniques such as CRISPR/Cas9 provide potent tools for modifying the genetic editing of plants. However, there is a risk that this precision could create new genes or regulatory elements that could trigger biosafety issues. For example, a recent study reported the creation of a new starch in a gene-edited potato that led to the production of acrylamide. This neurotoxin forms when certain foods are cooked at high temperatures. Similarly, scientists have expressed concerns that gene editing could lead to novel plant allergens and unexpected toxicological effects.

    To ensure the safety of genetically modified plants for human consumption and the environment, rigorous biosafety assessments must be conducted.

    The safety assessment for human health focuses on toxicology, allergenicity, and nutritional value. Toxicological studies evaluate whether consuming modified plants harms human health, while allergenicity assessments aim to identify potential allergenic proteins introduced during the genetic modification process. Additionally, nutritional value analysis ensures that the modified plants maintain or improve their essential nutrients, enhancing their potential benefits for human nutrition.

    However, it should not be forgotten that the human metabolism is highly complex and has adapted to new food sources at a slow evolutionary pace. Given the rapid development and introduction of genomic plant varieties, however, some concerns have emerged.

    Although individual genomically modified plants may be safe, interactions could occur when different genetically modified foods are consumed regularly and in combination. This could result in unforeseen metabolic effects triggered by altered protein or metabolic profiles in these plants.

    Genomic interventions to improve nutrient content, such as increasing certain vitamins or minerals, could impact the micronutrient profile of the human diet. Since the human metabolism relies on specific nutrient ratios, a permanent change in a wide range of products could require adjustments in nutrient balance.

    The long-term and combined effects of the regular consumption of genome-edited plants have not been sufficiently studied. These cumulative effects are complex and depend on factors such as genotype, microbiome, and individual metabolic conditions. Since new traits are often introduced through molecular changes in specific metabolic pathways, unexpected impacts on the overall metabolism could occur.

    In addition, the chemical and biological profiles of genetically modified plants influence the human microbiome, which is closely linked to the immune system and metabolism. Changes in the composition of food across a variety of products could influence the interaction between microbiome and metabolism in the long term, which requires additional research.

    Currently, only limited long-term studies are available on the health effects of continuous intake of such products over generations. In order to make reliable statements, extensive long-term studies are needed to investigate the combined effects of genomically modified plants on metabolism and general health.

    Unexpected DNA Damage from CRISPR-Cas

    On November 27, 2024, a research team from ETH Zurich uncovered serious side effects of using the gene-editing tool CRISPR-Cas. CRISPR-Cas, often referred to as the „gene scissors”, allows for precise interventions in DNA. The DNA is cut exactly at the location where the genetic material is to be altered. The cell repairs this damage in two possible ways: a fast but inaccurate method, or a slower, more precise method known as „homology-directed repair” (HDR). Researchers prefer HDR because it enables precise modifications.

    To promote HDR, a substance called AZD7648 was used. This blocks the fast repair process and forces the cell to use the precise HDR pathway. However, the study from ETH has shown that AZD7648 has unexpected side effects: in some cases, it causes massive damage to the genetic material, including the loss of entire chromosome arms or large DNA regions. Such changes make the DNA unstable and can have serious consequences.

    These defects were only discovered when the researchers examined the entire genome, not just the targeted areas.

    For us, this is a major setback because, like other scientists, we had hoped to use the new technique to accelerate the development of gene therapies”, explained the leader of the research team.

    Scientists are working intensively on improving the method. Only time will tell whether CRISPR-Cas can one day be considered truly safe.

    3. Where the Present and Future Converge

    In an increasingly technology- and innovation-driven world, we are experiencing a pivotal moment where the present of agriculture merges with the vision of the future. The agriculture of tomorrow is no longer confined to research laboratories but is already being applied in the fields of today. It is not just about food production, but about the comprehensive redesign of entire agricultural ecosystems, which will shape both the needs of people and the environment in the long term.

    Five years after the publication of the WEF report „Innovation with a Purpose: The Role of Technology Innovation in Accelerating Food Systems Transformation”, the technological and policy measures presented there have long been integrated into the strategies of large agri-biotech companies. A prominent example of this is Bayer AG, particularly with its division Bayer CropScience, which has deliberately embedded these approaches into its systemic solutions.

    In 2023, the company presented its vision for transforming the agricultural landscape over the next ten years to the public. Under the motto „Think Global – Act Local”, the corporation introduced comprehensive system solutions tailored to the specific needs of North America, EMEA (Europe, Middle East, and Africa), Latin America, and the Asia-Pacific region.

    These forward-looking approaches were illustrated using impressive 3D animations to make complex concepts clear and understandable. The presentation focused on how innovative technologies and strategies can help farmers around the world to respond more sustainably, efficiently and resiliently to the challenges of the coming years.

    Below, we take a closer look at the various stages of this global presentation and the solutions developed for each region.

    Let’s start in Illinois, USA, where John manages an impressive 5,000-hectare farm. In American terms, his operation is considered one of the large industrial agricultural enterprises.

    Through the seamless integration of digital technologies and modern biotechnology from a single source, John has significantly increased his income opportunities. Connected systems allow him to manage the operation more efficiently, while state-of-the-art tools make it easier to manage his land.

    On the other side of the Atlantic, we meet Pablo from Almería, Spain. He runs a 20-hectare tomato plantation, which is considered medium-sized in this region.

    Pablo’s success is based on a comprehensive technology concept that combines digital solutions with biotechnology and picking robots. This „all-inclusive solution” from Bayer not only makes his daily work easier, but also enables him to respond quickly to individual customer requests and strengthen his competitiveness.

    The next stop takes us to the state of Paraná in Brazil, where farmer Ana runs a 607-hectare soybean and corn farm all year round. It is a comparatively large farm for this region.

    Thanks to Bayer’s system solution, Ana can take advantage of favorable purchasing conditions for seeds and crop protection products, as well as access financial and insurance services. Her agricultural machinery is programmed to work with the specific application parameters of Bayer products as soon as they are used. By employing precision agriculture technologies, Ana is able to certify her harvest with a „Low Carbon” label, making her products more competitive in the market.

    We reach India, the most populous country in the world. There, the Group meets Ramesh, a small farmer who has specialized in rice farming and is now converting to future-proof agriculture with Bayer’s support.

    In a country where more than half of the working population is employed in agriculture, Bayer is promoting the complete automation of processing on small farms. However, it remains unclear how exactly these workers – like by a „magic hand” – will be relocated to urban areas. What is certain, however, is that with Bayer’s assistance, Ramesh is now able to produce more rice with less water and fewer laborers. 

    Bayer’s systemic approach reflects the respective regional challenges, such as labor shortages, resource depletion and the need for efficiency at different scales of agriculture. In the USA and Brazil, the main focus is on increasing efficiency and optimizing yields on large farms, while in Spain the focus is on the adaptability and flexibility of agriculture. In India, on the other hand, automation and reducing the workload are seen as the key to securing the future of smaller farms.

    In these scenarios, the focus shifts from farmers as active players to the technologies and products provided by companies such as Bayer. Farmers are increasingly operating in an automated and technology-driven environment in which responsibility for the success of their farms is shifting more and more to the solutions provided by agri-biotech companies. They act less as decision-makers and instead take on the role of users and operators of these technologies.

    This development could be seen as a incapacitation of farmers, as their dependence on external companies grows, with these companies providing all essential resources, from seeds and pesticides to digital platforms, automation technology, and financial infrastructure. In the long term, this could lead to farmers viewing themselves merely as users of systems controlled by large multinational corporations, rather than as independent entrepreneurs making their own decisions.

    The concern that farmers are becoming „extras” in their own business is increasingly being voiced, especially in light of the growing concentration of power in the hands of a few large players.

    4. The Magic of Small Steps

    Transformations in today’s world often do not occur through sudden, radical changes but through a series of small, systematic steps. It is the sum of these subtle yet consistent actions that ultimately brings about change.

    In the context of the global transformation of food systems, initiatives such as the Food Chain Reaction exercise, the WEF report „Innovation with a Purpose: The Role of Technology Innovation in Accelerating Food Systems Transformation”, the WHO’s One Health approach, or the EU’s Common Agricultural Policy (CAP) 2023–2027 can be seen as examples of such systematic progress.

    GAEA (Giving-to-Amplify-Earth-Action) is another project of the World Economic Forum that belongs to this category.

    Philanthropy

    We are at a tipping point in our efforts to put the planet back on track to meet our climate ambitions. To reach the speed and scale required to heal the Earth’s systems, we need to unlock not only private capital and government funds, but also the philanthropy sector as a truly catalytic force to achieve the necessary acceleration”, declared Klaus Schwab, Founder and Executive Chairman of the World Economic Forum, in the press release announcing GAEA.

    The new initiative aims to leverage philanthropic capital to mobilize $3 trillion annually from public and private sources. These funds are intended to help combat climate change and halt the loss of nature.

    „GAEA raises awareness and facilitates the adoption of the 4P approachPublic, Private and Philanthropic Partnerships – by which radical collaborations powered through catalytic philanthropy unlock the level of funding and expertise required to achieve real change“, reads the GAEA website.

    The focus is on three central goals: achieving net-zero greenhouse gas emissions, reversing the loss of nature and restoring biodiversity – all by 2050. The white paper „The Role of Public-Private Philanthropic Partnerships in Driving Climate and Nature Transitions” defines the priorities in the agricultural and forestry sectors that are suitable for the use of 4P models. These include improving animal health, increasing seed efficiency, promoting advanced seed technologies, reducing the use of fertilizers, increasing the use of nitrogen inhibitors, expanding protected areas and restoring degraded land.

    What lies behind the 4P approach is schematically illustrated in this image:

    World Economic Forum’s GAEA initiative – Briefing Paper October 2024

    The GAEA initiative employs a targeted strategy where philanthropic capital serves as a key resource to foster close collaboration between philanthropists, government actors, and the financial sector. Philanthropists take on an expanded role: they not only provide funding but also actively support innovative and high-risk projects that may be less appealing to other stakeholders. Their influence extends beyond resource provision, as they play a significant role in prioritizing and strategically shaping the projects.

    Governments and the financial sector are expected to leverage this capital to secure high-risk investments and make projects investment-ready. At the same time, all stakeholders benefit from the combined public-philanthropic expertise to identify and implement high-impact investments.

    This model promotes closer integration among the participating stakeholders and aims to blur traditional boundaries between them. It enables centralized coordination and alignment, designed to maximize efficiency and resource pooling. However, this merging could limit the independence of individual actors, raising concerns about transparency and democratic oversight.

    In this context, the interview with Hamburg sociology professor Frank Adolff on the „Entanglement of Philanthropy and Capitalism” is particularly revealing. The following excerpts illustrate the underlying dilemma:

    In one of your publications, you criticize philanthrocapitalists for wanting to improve philanthropy through more and more effective philanthropy. How can „more” philanthropy be a problem?

    Adloff: The more” is a problem when it is accompanied by a position of power that can no longer be controlled. We have the same phenomenon in the economic sphere: we call it monopolization. Monopolies are harmful to the economy because they can set prices, which they could not do under competition. In the world of philanthropy, we have to look at this in terms of democratic theory: When actors have such a position of power, they can of course move a lot and quickly on the one hand. On the other hand, this is uncontrollable and actors can assert their private interests. The Gates Foundation, for example, has been criticized for the influence it has on certain medical developments worldwide without any democratic control. Large organizations are also less inclined to cooperate with small civil society organizations, as they can use their resources to set the agenda themselves.

    To what extent does self-interest play a role in philanthrocapitalism?

    Adloff: This can be seen in the entanglements between entrepreneurial and philanthropic behavior. I’ll stick with the example of Zuckerberg’s foundation: It invests philanthropically – though it’s hardly philanthropy anymore – with the ultimate benefit going to the parent company. Or take the Gates Foundation: It focuses on education policy for a reason. It’s about the digitalization of schools and educational concepts. In the end, it’s no longer clear: Is it about philanthropic educational projects, or is the goal to provide the parent company with contracts?

    GAEA’s growing number of philanthropic partners include Jeff Bezos‘ Bezos Earth Fund, George Soros’ Open Society Foundations (OSF), the Rockefeller Foundation, INTEL founder Gordon Moore’s Gordon and Betty Moore Foundation, the Quandt family’s BMW Foundation and the Kamprad family’s IKEA Foundation.

    Shifting Ownership Structures

    The growing global population and increasing demand for food make agricultural land a strategically important investment. Many philanthropists, especially those with connections to large investment funds, view farmland as a stable asset that retains or even increases its value, even during times of crisis.

    Owning agricultural land means having control over its use and significantly influencing agricultural decisions, from production to conservation to succession planning. Owners set the rules for how the land is managed and to what extent decisions are made about its use. This brings another crucial aspect of the transformation of global food systems into focus: the gradual shift in ownership structures.

    With nearly 108,900 hectares, Bill Gates remained America’s largest private farmland owner in 2021. However, in the ranking of the largest landowners, Gates was „only” in 49th place – far behind Jeff Bezos, who ranked 25th”, reports Agrarheute in December 2023.

    The largest private landowners in the USA include the Emmerson family, owners of Sierra Pacific Industries, one of the country’s largest forestry companies, with holdings of around 943.300 hectares. Other prominent landowners include John Malone, founder and chairman of the media group Liberty Media, who owns around 890.700 hectares, and Ted Turner, media mogul and founder of CNN, with land holdings of around 809.700 hectares.

    The CNBC report „Why Bill Gates Is Buying Up U.S. Farmland” highlights recent developments in agricultural land acquisition and analyzes the associated impacts.

    Land is an asset with increasing value”, explains John Piotti, CEO of American Farmland Trust, in the report. „It has great intrinsic value and beyond that, it is a limited resource.”

    According to the US Department of Agriculture, around 30% of all agricultural land is owned by people who do not farm themselves. Investors often buy this land from farmers who have been farming the land for decades. While many of these farmers have significant assets in the form of land ownership, they struggle with scarce financial resources.

    Further information on the world’s largest landowners can be found here.

    The gradual shift in ownership of agricultural land is a global phenomenon with far-reaching impacts on agriculture and rural areas. A press release from the Welthungerhilfe in November 2020, titled „The Gap with Land Ownership Is Widening Around the World”, shows that land inequality has been steadily increasing since the 1980s.

    Worldwide, the largest 1% of farms now control more than 70% of agricultural land. In contrast, smallholder farmers make up about 80% of all farmers but often lack the financial resources to expand their land or remain competitive. This trend is also evident in the EU, where less than three percent of farms manage more than half of the arable land.

    The following figure illustrates the power dynamics in agriculture:

    The largest 1 % of farms control around 70 % of agricultural land.

    Moreover, an increasing number of financial institutions and investment firms, such as BlackRock, are investing in farmland as a stable and value-enhancing asset. This leads to a growing concentration of land ownership, which becomes less transparent. This trend fosters the industrialization of agriculture and weakens the position of small farms. The shift in land ownership often disadvantages smallholders, indigenous communities, and rural populations who rely on access to land. The increasing concentration of land ownership also drives up land prices, making it even more difficult for smaller farmers to compete with large players. Unequal land distribution further contributes to growing poverty and food security concerns.

    As these trends continue to evolve, it’s crucial for stakeholders in the agricultural sector to stay informed and adapt to the changing landscape“, states the website of the agritech company Farmonaut.

    The war in Ukraine illustrates how the geopolitical and economic reality is evolving. The article „Amidst Chaos of War, A New Report Exposes the Stealth Take-over of Ukrainian Agricultural Land” shows how several large local agricultural companies, still largely controlled by oligarchs, have increasingly opened up to Western banks and investment funds – including prominent players such as Kopernik, BNP or Vanguard, which now hold shares in the companies. The report also warns that Ukraine’s crushing debt is being used by financial institutions as leverage to push post-war reconstruction towards further privatization and liberalization reforms in various sectors, including agriculture. This is a lose-lose situation for Ukrainians: While the population is determined to defend their land, financial institutions are behind the scenes supporting the consolidation of farmland by oligarchs and Western financial interests.

    Tax reforms

    The „new normal” has also reached farmers in the UK. In recent days, nationwide protests have taken place, with farmers opposing the proposed changes to inheritance tax under the Labour government. These changes, set to take effect in April 2026, mainly affect agricultural land. In the future, farmers will only be able to claim limited tax relief on the value of their agricultural assets. The tax exemption for amounts over £1 million will be reduced from 100% to just 50%. This has raised significant concerns, particularly among family farms, as these regulations could put their businesses at risk or threaten their long-term viability.

    The planned change in the law, which could force farms to sell parts of their land through an increased tax burden, could be seen as an indirect form of expropriation. Such tax measures are causing public concern as they could encourage the transfer of agricultural property to large corporations or international investors – a development that is seen as detrimental to agriculture and rural communities.

    It’s become so tough I’m looking for a second job’: Inside the farming crisis”, headlines an article in the Independent, which describes this development as a further blow to family farms struggling to survive in the face of rising costs and increasing competition.

    To what extent the gradual changes in land ownership in the agricultural sector are linked to the controversial vision presented in a 2016 WEF video – „You will own nothing and be happy” – remains to be seen. However, this dynamic raises questions about the future of land ownership and control over food production – issues that will have far-reaching social and economic implications.

    5. On the Contrasts of Current Politics

    The global change in food systems is largely driven by the connection between food and climate change. But what is the share of food production in global greenhouse gas emissions?

    Estimates vary: Some studies assume around a quarter, while others even state more than a third. The following chart illustrates the range of results and provides an overview of the various models used to quantify the impact of food on emissions:

    Our World in Data

    Agriculture is a multifactorial source of CO₂ emissions. These include changes in land use such as deforestation, energy consumption for machinery and irrigation, the production and use of fertilizers, animal husbandry and animal feed production, transport and the decomposition of organic matter in the soil.

    The cited statistical models and survey methods form the basis for a wide range of societal and political measures worldwide. John Podesta, one of the key figures behind the „Food Chain Reaction” exercise, emphasized the urgency of the global situation at this year’s UN Climate Conference COP29 in Baku:

    John Podesta – speaking at COP29 [Quelle: Rappler]

    In his speech, he called for greater focus on the interactions between food, climate change, and social stability. His appeal emphasized the need to consistently translate existing data and insights into practical strategies to make food systems more resilient and sustainable.

    The following is not about assessing the accuracy of the climate change narrative and the need for CO2 reductions. Instead, we take a critical look at the behavior of those actors who promote these narratives and drive global action.

    President Biden and Vice President Harris have marshalled unprecedented climate resources over the past four years”, said John Podesta at COP29. At the same time, ntv reported back in March 2022 that Biden is planning the highest military budget in peacetime.

    Global military spending reached a new record in 2023. According to the Stockholm International Peace Research Institute (Sipri), it amounted to 2.44 trillion USD, with more than a third attributed to the United States. Germany ranks seventh”,reported Bayerischer Rundfunk BR24 in April 2024.

    It is noteworthy that military CO2 emissions are not included in UN reports, as the military is not required to report them.

    The US Department of Defence is the world’s largest institutional consumer of fossil fuels – and also the largest institutional emitter of greenhouse gases. A 2019 study shows that if the US military were a country, its fuel consumption alone would make it the 47th largest emitter worldwide.

    Neta Crawford from Boston University estimated the Pentagon’s emissions from 2001 to 2018 at 1.3 billion tonnes of CO2. This exceeds the annual emissions of countries such as Sweden and Denmark. [NZZ]

    And the US military is just one of many armies worldwide.

    Statista

    Armies worldwide are responsible for an estimated 6% of global greenhouse gas emissions, as reported by the British organization Scientists for Global Responsibility in 2022. If the global military were an independent country, it would take fourth place in the emissions ranking – ahead of Russia.

    However, the actual values could be higher, as indirect emissions, for example from the production of defence equipment or protective structures made of reinforced concrete, are not recorded. [NZZ]

    The production of weapons and military technology is resource-intensive and generates significant CO2 emissions, including waste products and pollution. Additionally, military areas occupy up to 6% of the world’s land area, making their use and management another significant factor contributing to emissions.

    In armed conflicts, CO2 emissions increase significantly due to the extensive use of grenades, bombs, missiles, and ammunition, as well as the high fuel consumption of combat units. Additionally, conflicts often have long-term devastating effects on the environment, further undermining sustainability.

    Direct emissions result from fires in tank depots, oil infrastructures, debris, as well as forest and field fires. Indirectly, deforestation for refugee camps, resource consumption for civilian supplies, and battles in neighboring regions further increase the carbon footprint.

    The war in Ukraine alone caused an estimated 155 million tonnes of CO2 in the first year, in addition to widespread destruction such as the demolition of the Kachovka dam.

    Given the disastrous state of affairs with regard to the UN Sustainable Development Goals, it seems remarkable that relevant actors favor long-term conflicts instead of working towards a quick, peaceful resolution.

    While the current headlines focus on the next stage of escalation, a paradigm shift in the sustainable investment industry is emerging in the background – a shift that redefines sustainability and, in light of military priorities, brings it into sharper focus.

    The asset manager FiNet Asset Management GmbH describes in its online article „Paradigm Shift in the Sustainable Investment Sector: The Defense Industry in Focus” a significant development in the world of sustainable investments. Due to geopolitical tensions and regulatory adjustments, financial institutions are reevaluating their stance on the defense industry within the framework of ESG (Environmental, Social, Governance) criteria.

    The European Commission emphasizes in its defense strategy that ESG requirements should not hinder investments in the defense industry – with the exception of banned weapons. It argues that the defense industry, through its contribution to resilience and security, can indirectly promote sustainability. Critics are skeptical of this blending of security and sustainability aspects. They warn that the defense industry, through significant environmental and climate damage, contradicts the principles of sustainability and could dilute its concept.

    This paradigm shift reflects the tensions between geopolitical realities, economic interests, and ethical principles, highlighting how the definition of sustainability is evolving within the ESG landscape.

    The current developments in the ESG debate remind one of the saying „What doesn’t fit, is made to fit”, as political and economic interests increasingly reshape the original sustainability criteria, questioning their scientific integrity.

    In this context, it is understandable why discussions and demands for „low-emission cows” are seen by some as absurd or grotesque.

    We know what to do. Let´s get to work. Let´s get it done.
    John Podesta, speech at the COP29 UN Climate Change Conference

    6. Outlook

    The transformation of food systems is unstoppable: whether through changing demand for novel foods, the biotechnological optimization of traditional staple foods, or the improvement of efficiency and digitalization along the entire „farm-to-fork” chain. The way humans produce their food seems to be reaching a new stage of evolution. This process is multifaceted, occurs gradually, and often goes unnoticed in the everyday lives of much of the population. However, globalization and the growing concentration of power and influence in the hands of a few actors run like a red thread through these developments.

    Within the framework of so-called philanthropic public-private partnerships, power structures are emerging that are increasingly turning farmers into extras in their own business. Since the early 2000s, the term Big Food has found a permanent place alongside terms such as Big Oil, Big Tech or Big Pharma. Due to their political and economic interests, these „Big Players” are able to flexibly adapt the original sustainability criteria that serve as the basis for the transformation of food systems – often to their own advantage.

    All in all, the developments of recent decades confirm Henry Kissinger’s statement: „Who controls the food supply, controls the people …”.

    It is up to us how we deal with this truth. The behavior, choices and priorities of individuals and societies play a central role in this, as they are not only an integral part of the transformation of food systems, but also its driving force.

    Our everyday lives are increasingly determined by the desire to reconcile family, work, household and leisure time. The flexibilization of the world of work and the associated changes to our routines have largely dissolved traditional daily rhythms. Fixed meal times are being replaced by flexible schedules that are individually adapted to work, sport or leisure. This dynamic lifestyle is leading to an increasing need for efficient time and resource management – a key factor that structures many people’s everyday lives.

    This development is reflected in food trends that focus on time-saving solutions. People want to minimize the effort involved in buying and preparing food without having to give up healthy, quick, practical and natural alternatives. At the same time, many people can no longer or no longer want to cook for themselves, but still crave a varied and high-quality diet. Younger consumers and people with higher incomes in particular are driving the desire for innovation: they are not only looking for new flavors, but also for modern concepts that support their flexible lifestyles. Sustainability and health remain key criteria.

    In an increasingly urban and ageing society, value for money is also becoming more important. Products should be affordable on the one hand and convenient and easily accessible on the other. These diverse requirements are shaping the future of nutrition: it is becoming more individual and flexible, adapted to hectic lifestyles and increasingly oriented towards the desire to combine efficiency and enjoyment.

    The described societal developments undoubtedly favor large-scale agricultural production and Big Food. Thanks to their efficiency, scalability, and innovative capabilities, these players can effectively meet the needs of an increasingly urban, time-constrained, and convenience-oriented society.

    It remains to be seen what role locally oriented producers, models such as community-supported agriculture or smallholder cooperatives will play in the „Food & Farm 4.0 landscape” in the future and whether they can effectively challenge the existing power structures in the industry.

    However, a profound shift in these power dynamics is likely to require more comprehensive structural changes – such as a fairer distribution of power and resources within food production, stronger political interventions, and possibly even a fundamental adjustment of the global economic system.


    Sources (as of 15.12.2024)

  • FARM & FOOD 4.0

    FARM & FOOD 4.0

    „Du bist nicht du, wenn du hungrig bist“ – ein Werbeslogan, den die meisten von uns sofort mit einem bekannten Schokoriegel verbinden. Mittlerweile ist er so in unseren Sprachgebrauch eingeflossen, dass wir ihn oft beiläufig hören und vielleicht sogar schmunzeln. Doch hast du je darüber nachgedacht, wie viel Wahrheit tatsächlich in diesen Worten steckt?

    Stell dir vor: Dein Magen knurrt. Nicht das harmlose Grummeln, das man mit einem schnellen Snack stillen kann, sondern ein Hunger, der dich langsam aufzehrt. Dein Blick schweift umher, aber alles, was du siehst, erinnert dich an Essen – und an dessen Fehlen. Wie weit würdest du gehen, um diesen Hunger zu stillen? Würdest du teilen? Würdest du nehmen? Würdest du kämpfen?

    Hunger verändert uns – körperlich, geistig, emotional. Es ist kein Zufall, dass unser Körper in einen Ausnahmezustand gerät, wenn die Nahrung ausbleibt. Plötzliche Reizbarkeit, Konzentrationsschwierigkeiten und ein lähmendes Gefühl der Schwäche sind nur der Anfang. Dein Gehirn, angewiesen auf Glukose, sträubt sich gegen jeden klaren Gedanken. Selbst die einfachsten Entscheidungen werden zu einer Herausforderung. Ohne ausreichende Nährstoffe kann der Körper nicht genügend Energie für alltägliche Aufgaben bereitstellen, was zu Müdigkeit und Erschöpfung führt. Aus dem Hunger wird nicht nur ein Mangel an Nahrung, sondern ein Mangel an Kontrolle.

    Aber das ist nicht alles. Hunger kann Menschen nicht nur gereizt, sondern auch gefährlich machen. Studien zeigen, dass niedrige Blutzuckerwerte Aggressionen fördern können. Plötzlich wirkt jedes Hindernis wie ein persönlicher Angriff, jede Diskussion wie ein Kampf. Und wenn Hunger chronisch wird, hinterlässt er tiefe Spuren: Angst, Depression, und ein allgegenwärtiges Gefühl von Machtlosigkeit.

    Doch was passiert, wenn nicht nur du, sondern Millionen Menschen hungern? Wenn Hunger nicht nur das Problem eines Einzelnen ist, sondern ganzer Gesellschaften? Henry Kissinger brachte es treffend auf den Punkt: „Wer die Nahrungsmittelversorgung kontrolliert, kontrolliert die Menschen.“

    Die Kontrolle über Lebensmittel ist Macht. Es geht nicht nur darum, was auf unseren Tellern landet, sondern auch darum, wer entscheidet, was und wie viel überhaupt gegessen werden darf. Die Verfügungsgewalt über Nahrung kann Konflikte schüren, Regierungen ins Wanken bringen und das Leben ganzer Nationen prägen. Hunger ist nicht nur eine Tragödie, sondern auch ein Werkzeug – und in den falschen Händen eine Waffe.

    Deshalb ist eine gerechte Versorgung mit Nahrungsmitteln mehr als ein Akt der Menschlichkeit. Sie ist ein Schlüssel zu Frieden, Freiheit und Stabilität. Nahrung stillt nicht nur den Hunger, sie bewahrt Würde und Zusammenhalt. Denn am Ende des Tages ist sie weit mehr als bloße Energie: Sie ist das Fundament, auf dem unser gemeinsames Leben steht. In diesem Blogbeitrag werden wir untersuchen, welche Machtstrukturen und Strategien die zukünftige Nahrungsmittelversorgung prägen werden und was dies für uns alle bedeuten könnte.

    1. Food Chain Reaction – die Zukunft spielerisch gestalten
    1.1. Die Organisatoren
    1.2. Die Teilnehmer
    1.3. Die Übung
    1.4. Einige Schlussfolgerungen
    1.5. Von der Simulation zur Realität
    2. Die vierte industrielle Revolution und die Gestaltung der Lebensmittelsysteme
    2.1. Veränderung der Nachfrage
    2.2. Digitalisierung entlang der gesamten Wertschöpfungskette
    2.3. Follow the Science - Biotechnologien der nächsten Generation und Genomik
    3. Wo Gegenwart und Zukunft verschmelzen
    4. Die Magie der kleinen Schritte
    5. Über Kontraste der aktuellen Politik
    6. Ausblick

    1. Food Chain Reaction –
    die Zukunft spielerisch gestalten

    In einer komplexen Welt, die zunehmend von Unsicherheiten und Herausforderungen geprägt ist, suchen Experten und Verantwortliche nach innovativen Wegen, um zukünftige Krisen zu erkennen und zu bewältigen. Dabei spielen Simulationsübungen eine wesentliche Rolle. Solche Ansätze bieten eine hervorragende Möglichkeit für praxisnahes Training. Die Teilnehmer können in verschiedene Szenarien eintauchen und die Auswirkungen ihrer Entscheidungen unmittelbar erleben. Sie haben die Möglichkeit, in einer sicheren Umgebung zu experimentieren, Fehler zu machen und daraus zu lernen – ohne reale Konsequenzen. So können Führungskräfte ihre Fähigkeiten und ihr Wissen erweitern und sich auf tatsächliche Krisensituationen vorbereiten.

    Die Gestaltung und Festlegung der Simulationsbedingungen sind dabei entscheidend für die gewonnenen Erkenntnisse und Ergebnisse der Übung. Welche Szenarien werden durchgespielt? Welche Faktoren werden als relevant erachtet? Diese Entscheidungen bestimmen, welche Aspekte der Realität in der Simulation repräsentiert werden und welche möglicherweise unberücksichtigt bleiben. Jede Simulation basiert auf spezifischen Annahmen und Hypothesen, die stark beeinflussen können, wie die Teilnehmer die Szenarien interpretieren und darauf reagieren. Die mit der Simulation verfolgten Ziele stehen ebenfalls in Zusammenhang mit deren Gestaltung und den Ergebnissen. Geht es darum, bestimmte politische Maßnahmen zu testen, oder soll ein allgemeines Bewusstsein für Risiken geschaffen werden? Auch die Zusammensetzung der Teilnehmergruppe beeinflusst die Ergebnisse. Ob Regierungsbeamte, Wissenschaftler, Vertreter von NGOs oder der Privatwirtschaft – ihre jeweiligen Perspektiven und Interessen führen oft zu unterschiedlichen Lösungsansätzen und Schlussfolgerungen.

    Ein anschauliches Beispiel für eine solche Übung ist die Food Chain Reaction, eine groß angelegte Simulation, die im November 2015 in Washington, D.C., stattfand. Organisiert vom Center for American Progress (CAP), dem World Wildlife Fund (WWF), Cargill Inc., Mars Inc. und dem Center for Naval Analysis (CNA), brachte sie über 65 Experten und Entscheidungsträger aus der ganzen Welt zusammen. Ziel war es, die Reaktionen auf eine hypothetische globale Ernährungskrise im Zeitraum von 2020 bis 2030 zu simulieren. Extreme Wetterereignisse, Preisschwankungen und politische Instabilität wurden in den Szenarien kombiniert, um die Komplexität und die Auswirkungen einer solchen Krise greifbar zu machen – und mögliche Lösungsansätze zu erarbeiten.


    1.1. Die Organisatoren

    Werfen wir zunächst einen Blick auf die Organisatoren des Events, die die Simulation entworfen und durchgeführt haben:

     Center for American Progress (CAP) 

    Das CAP präsentiert sich auf seiner offiziellen Website wie folgt:

    Das Center for American Progress ist ein unabhängiges, überparteiliches Politikinstitut, das sich der Verbesserung des Lebens aller Amerikaner durch mutige, fortschrittliche Ideen sowie starke Führung und konzertierte Maßnahmen verschrieben hat. Unser Ziel ist es nicht nur, die Diskussion zu verändern, sondern das Land zu verändern.

    Wir entwickeln neue politische Ideen, fordern die Medien auf, über die wirklich wichtigen Themen zu berichten, und gestalten die nationale Debatte. Mit politischen Teams aus einer Reihe von Disziplinen und wichtigen Themenbereichen wendet CAP kreative Ansätze an, um Ideen für politische Entscheidungsträger zu entwickeln, die zu echten Veränderungen führen. Unsere umfassende Kommunikations- und Öffentlichkeitsarbeit ermöglicht es uns, sich an eine schnell verändernde Medienlandschaft anzupassen und unsere Ideen offensiv in die nationale politische Debatte einzubringen.

    CAP wurde von John Podesta gegründet. Über welche Machtposition diese Organisation tatsächlich verfügt, kann man unter diesem Link nachlesen:

    John Podesta ist der Gründer des Center for American Progress. Derzeit ist er leitender Berater des Präsidenten für Innovationen und die Umsetzung sauberer Energien. Podesta war Berater von Präsident Barack Obama, wo er für die Koordinierung der Klimapolitik und -initiativen der Regierung verantwortlich war. 2008 war er Co-Vorsitzender des Übergangsteams von Präsident Obama. Er war Mitglied des hochrangigen Gremiums namhafter Persönlichkeiten des UN-Generalsekretärs zur Entwicklungsagenda nach 2015. Podesta war zuvor Stabschef im Weißen Haus von Präsident William J. Clinton. Er leitete Hillary Clintons Präsidentschaftswahlkampf 2016.

    Bei Wikipedia kann man weitere interessante Details zu CAP finden.

    Obwohl CAP sich als überparteilich bezeichnet, zeigt sich eine klare Neigung zu sozial- und umweltpolitischen Themen, die auch die Ausrichtung der „Food Chain Reaction“-Übung prägen. Gründer John Podesta, selbst ein ehemaliger Spitzenpolitiker, stärkt CAPs Einfluss in Regierungskreisen, was zugleich Fragen zur tatsächlichen Neutralität und Objektivität des Instituts aufwirft. Kritiker argumentieren, dass CAPs progressive Werte die Auswahl und Darstellung von Krisenszenarien beeinflussen könnten und so die Ergebnisse und Empfehlungen in eine bestimmte Richtung lenken.

     World Wildlife Fund (WWF) 

    [offizielle Website der Organisation]

    Der WWF ist eine der weltweit größten und bekanntesten Naturschutzorganisationen. Gegründet 1961, hat der WWF seinen Hauptsitz in Gland, Schweiz, und ist in über 100 Ländern aktiv. Mit mehr als fünf Millionen Unterstützern weltweit setzt sich der WWF für den Schutz natürlicher Lebensräume und die Erhaltung der biologischen Vielfalt ein.

    Zu den Hauptanliegen gehören der Schutz bedrohter Arten und die Bewahrung natürlicher Lebensräume wie Wälder, Meere und Süßwasserökosysteme. Darüber hinaus fördert der WWF die nachhaltige Nutzung von Ressourcen und setzt sich für umweltschonende Praktiken in Fischerei, Landwirtschaft, Forstwirtschaft und Wasserbewirtschaftung ein. Ein weiteres zentrales Ziel ist die Bekämpfung des Klimawandels durch die Reduktion von Treibhausgasemissionen und die Förderung erneuerbarer Energien. Zudem unterstützt der WWF weltweit Projekte zur nachhaltigen Entwicklung von Gemeinschaften, die eine umweltfreundliche Nutzung natürlicher Ressourcen ermöglichen und die Lebensqualität verbessern.

    Trotz seiner bedeutenden Bemühungen und Erfolge steht der WWF auch in der Kritik. Ein zentraler Kritikpunkt ist die Zusammenarbeit mit der Industrie: Dem WWF wird vorgeworfen, zu eng mit großen Unternehmen zu kooperieren, die selbst erheblich zur Umweltzerstörung beitragen. Kritiker behaupten, dass diese Partnerschaften oft zu „Greenwashing“ führen, bei dem Unternehmen ihre Umweltbilanz besser darstellen, als sie tatsächlich ist.

    Es gibt Berichte, dass in von WWF unterstützten Schutzgebieten indigene Gemeinschaften vertrieben wurden. Dies führte dazu, dass diese Menschen den Zugang zu ihren angestammten Lebensräumen und Ressourcen verloren. Solche Maßnahmen verursachen oft erhebliche soziale und wirtschaftliche Probleme und lösen vor Ort Spannungen sowie Widerstand aus.

    Die langfristige Wirksamkeit der Projekte des WWF wird ebenfalls infrage gestellt. Kritiker argumentieren, dass die erzielten Erfolge oft kurzfristig sind und die eigentlichen Ursachen der Umweltzerstörung nicht ausreichend angegangen werden.

    Auch mangelnde finanzielle Transparenz wird dem WWF vorgeworfen, insbesondere hinsichtlich der Herkunft und Verwendung seiner Mittel.

    Die Tatsache, dass prominente Persönlichkeiten wie Prinz Philip und König Juan Carlos, bekannte Liebhaber der Großwildjagd, führende Positionen im WWF innehatten, hat zu erheblichen Kontroversen geführt. Kritiker argumentieren, dass ihre Teilnahme an der Großwildjagd im Widerspruch zu den Zielen und der Ethik des WWF steht, der sich dem Schutz von Wildtieren und ihren Lebensräumen verschrieben hat. Diese Doppelmoral wurde von Naturschützern und der Öffentlichkeit heftig kritisiert.

    Während Prinz Philip und König Juan Carlos behaupteten, dass regulierte Jagd zur Erhaltung bestimmter Arten und zur Unterstützung lokaler Gemeinschaften beitragen könne, bleibt diese Praxis für viele ein Symbol kolonialen und aristokratischen Privilegs sowie der Ausbeutung von Naturressourcen. Infolgedessen werden die Glaubwürdigkeit und die ethischen Prinzipien der Organisation infrage gestellt.

     Center for Naval Analysis (CNA) 

    Das CNA präsentiert sich auf seiner offiziellen Website wie folgt:

    CNA ist eine unabhängige, gemeinnützige Forschungs- und Analyseorganisation, die sich der Sicherheit der Nation verschrieben hat. Seit 80 Jahren sind unsere wissenschaftliche Genauigkeit und unser praxisnaher Umgang mit Daten für Führungskräfte, die mit komplexen Problemen konfrontiert sind, unverzichtbar. CNA setzt Operations Research ein, um militärische Fragen im Center for Naval Analyses und innenpolitische Herausforderungen im Institute for Public Research zu behandeln.

    Das Center for Naval Analysis (CNA) positioniert sich als unabhängige, gemeinnützige Forschungsorganisation, die sich der nationalen Sicherheit widmet. Mit über 80 Jahren Erfahrung in wissenschaftlicher Forschung und datenbasierter Analyse hat CNA einen soliden Ruf bei Entscheidungsträgern, die komplexe Probleme angehen. Die Kombination aus operationeller Forschung und der Betrachtung militärischer sowie innenpolitischer Fragestellungen verleiht der Organisation eine bedeutende Rolle im politischen Diskurs.

    Obwohl CNA sich um wissenschaftliche Genauigkeit bemüht, bleibt die Frage der Objektivität bestehen, insbesondere bei der Anwendung der Forschungsergebnisse in politischen Entscheidungen. Entscheidungen zur Nahrungsmittelversorgung sind oft stark politisch und sozial aufgeladen. Daher könnte die Interpretation der Daten durch Entscheidungsträger beeinflusst werden, was die Neutralität der Forschung infrage stellt. In einem Umfeld, in dem politische und militärische Interessen häufig eng miteinander verwoben sind, ist die Frage nach der tatsächlichen Neutralität von CNA entscheidend.

     Cargill Inc. 

    [offizielle Website des Unternehmens]

    Das Handelsblatt beschreibt das Unternehmen in seinem Artikel „Dieser stille Riese prägt das globale Lebensmittelgeschäft“ vom 02.08.2019 mit den folgenden Worten:

    Was haben Getreidesilos, Fischzucht und Laborfleisch gemein? Sie alle gehören zum Geschäft des US-Agrarkonzerns Cargill.

    Da Cargill aber kaum Endprodukte herstellt, kennt die breite Öffentlichkeit den Konzern nicht. Dabei arbeiten heute 155.000 Menschen in 70 Ländern für den Agrarspezialisten. Auch in Deutschland ist der Konzern an zwölf Standorten mit insgesamt 1700 Mitarbeitern vertreten.

    In den USA beziehen sämtliche McDonald’s-Restaurants alle ihre Eier von Cargill-Farmen. In Thailand ist Cargill der größte Geflügelproduzent. Das Unternehmen finanziert zum Teil auch die Geschäfte seiner Kunden und unterhält eine ansehnliche Flotte von Transportschiffen. Auch deutsche Supermärkte und Discounter werden beliefert, nur der Name Cargill taucht dabei gar nicht auf.

    Fast jeder Amerikaner isst – ohne es zu wissen – täglich Lebensmittel, deren Zutaten Cargill mitproduziert hat. Von der Versorgung der Landwirte mit Tierfutter bis zur Verarbeitung von Zutaten für Lebensmittelhersteller deckt Cargill fast die gesamte Lieferkette ab. Gemeinsam mit den drei Agrarkonzernen ADM, Bunge und Louis Dreyfus kontrolliert Cargill laut Datenbank Pitchbook 90 Prozent des weltweiten Getreidemarkts.

    Dabei hat das Unternehmen einen sehr eigenen Ansatz: „Wenn Cargill einen Wachstumsmarkt erkennt, dann kauft der Konzern Unternehmen in dem Markt, um das Geschäft von Grund auf zu verstehen“.

    Zuletzt hat MacLennan (verm. CEO von Cargill) auch in Laborfleisch investiert. Unter seiner Führung hat sich Cargill im Mai an dem israelischen Start-up Aleph Farms beteiligt. Das Unternehmen stellt Fleisch aus Zellkulturen her, ohne dass dafür Tiere wachsen und getötet werden müssen.

    Für Cargill ist es bereits die zweite Investition in einen Hersteller von Laborfleisch. Bereits 2017 hat MacLennan zusammen mit Bill Gates und Richard Branson in Memphis Meats investiert, das Unternehmen ist nach eigenen Angaben das erste, das Hühnerfleisch ohne Hühner herstellt.

    Außerdem hält Cargill eine Minderheitsbeteiligung an Puris, dem Hersteller von Erbsenproteinen. Diese Eiweiße bilden die Grundlage für viele Fleischalternativen. Abnehmer ist unter anderem Beyond Meat.

    Umweltschützer werfen dem Unternehmen vor, für Treibhausemissionen und Abholzung verantwortlich zu sein. Laut einer Studie des Institute for Agriculture and Trade Policy und der Umweltorganisation Grain sind die fünf größten Fleisch- und Molkereikonzerne – darunter Cargill – für mehr Treibhausgasemissionen im Jahr verantwortlich als die Ölkonzerne Exxon Mobil, Shell oder BP.

    Die Umweltschutzorganisation Mighty Earth machte Cargill und Wettbewerber Bunge für die Entwaldung am bolivianischen Amazonas und in Brasilien mitverantwortlich. Allein im Gebiet der Cerrados, der Savannen Zentralbrasiliens, sei wegen Cargill von 2011 bis 2015 eine Fläche von rund 130.000 Hektar abgeholzt worden.

    Wohl auch wegen dieser Kritik hat sich das Unternehmen mehr nachhaltiges Wirtschaften vorgenommen. So ist der Konzern seit 2017 eines von fast 10.000 Mitgliedern der UN-Initiative Global Compact, die sich für eine sozialere und ökologischere Gestaltung der Globalisierung einsetzt.

    Ganz aktuell hat Mighty Earth Mitte Juli allerdings einen ausführlichen Bericht zu Cargills Umweltverfehlungen herausgebracht. Das Unternehmen habe mehrere Monate Zeit gehabt, etwas zu ändern, das sei aber nicht erfolgt, heißt es bei der Umweltorganisation.

    Die Rolle von Cargill im globalen Lebensmittelgeschäft ist ambivalent. Als einer der größten Agrarkonzerne weltweit kontrolliert Cargill einen bedeutenden Teil der globalen Lieferketten. Diese Marktmacht kann es dem Unternehmen ermöglichen, politischen Einfluss auszuüben und Entscheidungen in der Nahrungsmittelpolitik zu beeinflussen. Dabei bleibt die Frage, ob dieser Einfluss tatsächlich im besten Interesse der Allgemeinheit erfolgt oder primär den Unternehmensinteressen dient.

     Mars Inc. 

    [offizielle Website des Unternehmens]

    Mars Inc. ist ein US-amerikanischer multinationaler Hersteller von Süßwaren, Tiernahrung und anderen Lebensmitteln sowie Anbieter von Tierpflegedienstleistungen mit 45 Milliarden US-Dollar Jahresumsatz im Jahr 2022. Das US-Wirtschaftsmagazin Forbes hat das Unternehmen als das viertgrößte Privatunternehmen in den Vereinigten Staaten eingestuft.

    Als globales Unternehmen mit der Reichweite eines kleinen Landes haben wir die Verantwortung – und die Möglichkeit –, einen nachhaltigen Einfluss auf die Welt zu haben, lautet die Botschaft des Mitorganisators der „Food Chain Reaction“-Übung.  

    Der nachhaltige Einfluss auf die Welt hat jedoch einige Schattenseiten. Auf Wikipedia findet sich diesbezüglich dazu Folgendes:

    2019 gab Mars bekannt, dass sie nicht garantieren können, dass ihre Schokoladenprodukte frei von Kindersklavenarbeit sind, da sie nur 24 % ihrer Einkäufe bis auf die Ebene der Farmen zurückverfolgen können.

    Im Jahr 2021 wurde Mars in einer Sammelklage von acht ehemaligen Kindersklaven aus Mali verklagt, die behaupteten, das Unternehmen habe ihre Versklavung auf Kakaoplantagen in der Elfenbeinküste unterstützt und begünstigt. In der Klage wurde Mars (zusammen mit Nestlé, Cargill, Barry Callebaut, Olam International, The Hershey Company und Mondelez International) beschuldigt, wissentlich an Zwangsarbeit beteiligt gewesen zu sein, und die Kläger verlangten Schadensersatz wegen ungerechtfertigter Bereicherung, fahrlässiger Überwachung und vorsätzlicher Zufügung von seelischem Leid. Im Juni 2021 wies der Oberste Gerichtshof der Vereinigten Staaten die Klage mit der Begründung ab, dass die Gruppe nicht berechtigt war, eine solche Klage einzureichen, da der Missbrauch außerhalb der Vereinigten Staaten stattgefunden hatte.

    Eine Untersuchung des Fernsehsenders CBS aus dem Jahr 2023 ergab, dass Kinder im Alter von fünf Jahren in der Lieferkette von Mars in Ghana arbeiten, um Kakao für Marken wie Snickers und M&Ms zu ernten.

    Im September 2017 ergab eine Untersuchung der Nichtregierungsorganisation Mighty Earth, dass ein großer Teil des Kakaos, der in der von Mars und anderen großen Schokoladenherstellern produzierten Schokolade verwendet wird, illegal in Nationalparks und anderen Schutzgebieten in der Elfenbeinküste und Ghana angebaut wurde. Diese Länder sind die beiden größten Kakaoproduzenten der Welt.

    Aus dem Bericht geht hervor, dass in mehreren Nationalparks und anderen Schutzgebieten 90 % oder mehr der Landmasse in Kakao umgewandelt wurden. Weniger als vier Prozent der Elfenbeinküste sind nach wie vor dicht bewaldet, und die Laissez-faire-Methode der Schokoladenunternehmen bei der Beschaffung hat auch in Ghana zu einer umfassenden Abholzung geführt. In der Elfenbeinküste hat die Abholzung dazu geführt, dass Schimpansen nur noch in einigen wenigen kleinen Gebieten leben und die Elefantenpopulation des Landes von mehreren hunderttausend auf etwa 200 bis 400 reduziert wurde.

    Mars Inc., als einer der größten globalen Lebensmittelkonzerne, positioniert sich als verantwortungsbewusster Akteur mit dem Ziel, einen nachhaltigen Einfluss auf die Welt zu haben. Die öffentlich verfügbaren Informationen zeichnen jedoch ein eher zwiespältiges Bild und legen nahe, dass Mars Inc. strategische Entscheidungen möglicherweise stärker an eigenen Interessen und Marktbedürfnissen orientiert als an langfristigen sozialen und ökologischen Zielen.


    1.2. Die Teilnehmer

    Wer waren die Teilnehmer der „Food-Chain-Reaction“-Übung?

    Das Event richtete sich in erster Linie an hochrangige Beamte und Fachexperten aus Brasilien, Kontinentalafrika, China, der Europäischen Union (EU), Indien und den USA sowie an multilaterale Institutionen, Unternehmen und Investoren.

    Wer in der Teilnehmerliste jedoch Vertreter kleiner und mittelständischer landwirtschaftlicher Betriebe sucht, wird enttäuscht sein. Stattdessen finden sich dort unter anderem folgende Teilnehmer:

     Embrapa (Empresa Brasileira de Pesquisa Agropecuária) 

    [offizielle Website der Organisation]

    Embrapa ist die brasilianische Agrarforschungs- und Entwicklungsorganisation, die eine zentrale Rolle in der Entwicklung und Modernisierung der Landwirtschaft in Brasilien spielt. Die Organisation gehört zum brasilianischen Landwirtschaftsministerium. Ihre Mission ist es, durch innovative Forschung Technologien zu entwickeln, die die Produktivität der Landwirtschaft steigern, die Umweltauswirkungen minimieren und die Ernährungssicherheit verbessern.

    Embrapa betreibt eine Vielzahl von Forschungsprojekten und hat entscheidend zur Optimierung von Nutzpflanzen beigetragen. Die Organisation entwickelt Sorten, die speziell auf die brasilianischen Klimabedingungen zugeschnitten sind, und fördert den Einsatz moderner Anbaumethoden. Diese Fortschritte haben Brasilien von einem Nettoimporteur zu einem der führenden Agrarproduzenten und -exporteure der Welt gemacht.

    Gleichzeitig sieht sich Embrapa auch mit Kritikpunkten konfrontiert, insbesondere in Bezug auf ihre Umwelt- und Sozialauswirkungen, die aus der Förderung intensiver industrieller landwirtschaftlicher Praktiken resultieren. Embrapa hat maßgeblich zur Expansion von gentechnisch veränderten Monokulturen wie Soja, Mais und Zuckerrohr in Brasilien beigetragen. Kritiker sehen in der Förderung von gentechnisch veränderten Organismen (GVO) eine Gefahr für die Umwelt und die Ernährungssouveränität der Landwirte. Diese Monokulturen haben zu einer Reihe von Umweltproblemen geführt, darunter Entwaldung, Bodendegradation und Verlust der biologischen Vielfalt.

    Die intensive Landwirtschaft, die von Embrapa gefördert wird, setzt oft auf den Einsatz von Agrochemikalien und künstlicher Bewässerung, was die Übernutzung von Wasserressourcen und die Kontamination von Böden und Gewässern mit Pestiziden und Düngemitteln zur Folge haben kann.

    Kritiker werfen Embrapa vor, die Interessen großer Agrarunternehmen stärker zu fördern als die der Kleinbauern. Die Expansion der industriellen Landwirtschaft hat oft zur Vertreibung kleiner Landwirte und indigener Gemeinschaften geführt. Die von Embrapa geförderten Technologien haben häufig den Großgrundbesitz gestärkt, was zu einer stärkeren Konzentration von Land in den Händen weniger geführt hat. Dies hat soziale Ungleichheiten verschärft und die Lebensgrundlagen vieler kleiner Landwirte untergraben.

    In einer Analyse mit dem Titel „Oberflächliche Festlegungen und tiefgreifende Überlegungen: Die Gestaltung der Nachhaltigkeit bei der brasilianischen Agrarforschungsgesellschaft (Embrapa)“ vom Dezember 2023 kommen die Autoren zur folgenden Schlussfolgerung: „Unsere Ergebnisse zeigen, dass Embrapa zwar Praktiken fördert, die auf alternativen Ansätzen wie der Agrarökologie beruhen, ihre tiefere Ausrichtung jedoch oft die Kernannahmen widerspiegelt, die die dominanten industriellen Lebensmittelsysteme bestimmen. Dieses Framing verstärkt die zugrunde liegenden Logiken von Kontrolle, Effizienz und Wettbewerb, die mit dem produktivistischen Paradigma übereinstimmen, und schließt abweichende Perspektiven innerhalb der Organisation aus.

     Louis Dreyfus Company (LDC) 

    [offizielle Website des Unternehmens]

    LDC ist eines der ältesten und größten Agrarunternehmen der Welt. Das Unternehmen ist ein wichtiger Akteur im globalen Handel mit Agrarrohstoffen und gehört zu den sogenannten „ABCD“-Unternehmen (Archer Daniels Midland, Bunge, Cargill, und Louis Dreyfus), die den weltweiten Agrarmarkt dominieren. Die Firma ist weltweit tätig und beschäftigt sich hauptsächlich mit dem Handel, der Verarbeitung und dem Transport von Agrarrohstoffen. Sie betreibt auch eine Vielzahl von Infrastrukturen wie Lagerhäuser, Verarbeitungsanlagen und Transportflotten, um den Handel mit diesen Rohstoffen zu unterstützen.

    Im Dezember 2022 haben peruanische und internationale Organisationen eine Beschwerde bei der OECD in den Niederlanden eingereicht, in der gefordert wird, dass die Louis Dreyfus Company (LDC) zur Rechenschaft gezogen wird, weil sie durch die Beschaffung von Palmöl aus der Region Ucayali im peruanischen Amazonasgebiet zu negativen Auswirkungen auf die Umwelt, die Menschenrechte und die Korruption beigetragen hat. Im September 2023 hat die OECD-Aufsichtsbehörde die Klage von den indigenen Organisationen gegen Louis Dreyfus Company zugelassen.

    Weitere Kritik an den Geschäftspraktiken von LDC kann man in diesem Beitrag finden.

     Kellogg Company 

    [offizielle Website des Unternehmens]

    Die Kellogg Company (auch bekannt als Kellogg’s) ist ein führender multinationaler Lebensmittelkonzern, der vor allem für seine Frühstücksprodukte wie Cornflakes, Müslis und Snacks bekannt ist. Kellogg’s hat sich im Laufe der Jahre zu einem der weltweit größten Hersteller von verarbeiteten Lebensmitteln entwickelt und ist heute in über 180 Ländern tätig.

    Kellogg’s Produkte, insbesondere die Frühstückszerealien, werden oft wegen ihres hohen Zucker- und Salzgehalts kritisiert. Trotz Bemühungen, gesündere Produkte anzubieten, wird dem Unternehmen vorgeworfen, dass viele seiner Hauptprodukte zur Adipositas-Epidemie, insbesondere bei Kindern, beitragen. Im April 2024 wurden in Kellogg’s-Cornflakes im Labor die besonders bedenklichen aromatischen Mineralölkohlenwasserstoffe MOAH sowie Pestizidrückstände nachgewiesen. Als Kellogg’s-Vorstand armen Familien sein Müsli als Abendbrot empfiehl, regte sich der SPIEGEL im Februar 2024 auf:

    Die Idee dürfte vielen nicht schmecken: Multimillionär Gary Pilnick hat seine Cerealien als ideale Lösung für Familien angepriesen, die knapp bei Kasse sind. Spöttische Reaktionen ließen nicht lange auf sich warten.

     Global Crop Diversity Trust 

    [offizielle Website des Welttreuhandfonds für Kulturpflanzenvielfalt]

    Crop Trust ist eine internationale Organisation, die sich der Erhaltung der pflanzengenetischen Ressourcen widmet. Ihr Hauptziel ist es, die Vielfalt der Nutzpflanzen weltweit zu bewahren, um die zukünftige Ernährungssicherheit zu gewährleisten. Sie wurde im Jahr 2004 von der UN-Ernährungs- und Landwirtschaftsorganisation und der Consultative Group on International Agricultural Research (CGIAR) als unabhängiger Fonds nach internationalem Recht gegründet. Das Stiftungsvermögen wird durch staatliche und private Geber bereitgestellt. In der Liste der Spender finden sich Namen wie Bezos Earth Fund, Bill & Melinda Gates Stiftung, DuPont/Pioneer Hi-Bred, Pepsico, Rockefeller Foundation, Syngenta und Unilever.

    Crop Trust ist bekannt für die Verwaltung des Svalbard Global Seed Vault in Norwegen, einer sicheren Saatgutbank, die als globales Backup für nationale und internationale Genbanken dient. Die Bewahrung der genetischen Vielfalt von Nutzpflanzen soll dazu beitragen, die globale Ernährungssicherheit zu gewährleisten, indem sie Landwirten Zugang zu einer breiten Palette von Pflanzensorten bietet, die an unterschiedliche Umweltbedingungen angepasst sind.

    Einige Experten bevorzugen die In-Situ-Konservierung (Erhaltung von Pflanzen in ihrem natürlichen Lebensraum) gegenüber der Ex-Situ-Konservierung (Erhaltung außerhalb ihres natürlichen Lebensraums, wie in Genbanken), da erstere die natürliche Evolution und Anpassung der Pflanzen fördert. Kritiker argumentieren, dass die Finanzierung durch große Unternehmen und Stiftungen zu einem Einfluss dieser Geldgeber auf die Prioritäten und Strategien der Organisation führen könnte. Es gibt Bedenken, dass die Verfügbarkeit und der Zugang zu genetischen Ressourcen, die in Genbanken gelagert werden, ungleich verteilt sein könnten, was möglicherweise kleinere Bauern oder weniger entwickelte Länder benachteiligt.

     adelphi 

    [offizielle Website der Denkfabrik und Beratungsorganisation]

    adelphi ist eine unabhängige deutsche Denkfabrik und Beratungsorganisation, die sich auf Nachhaltigkeit, Klima- und Umweltpolitik sowie internationale Entwicklungszusammenarbeit spezialisiert hat. Die Organisation wurde 2001 gegründet und hat ihren Sitz in Berlin. Sie arbeitet sowohl im öffentlichen als auch im privaten Sektor und bietet Forschung, Beratung und Projektumsetzung in verschiedenen Bereichen an, darunter Klimawandel, Energiepolitik, Wasserwirtschaft, Biodiversität und nachhaltige Wirtschaftsentwicklung.

    Auf der adelphi-Homepage kann man folgendes nachlesen:

    Wir sind Visionär*innen, Gestalter*innen, Strateg*innen und Agenda-Setter und arbeiten mit und für Regierungen, internationale Organisationen, Städte, Verbände, NGOs und Unternehmen.

    Aber wie unabhängig ist die „unabhängige Denkfabrik“ adelphi wirklich?

    Alexander Carius ist Politikwissenschaftler und Gründer und Direktor von adelphi. Zusammen mit Harald Welzer und Andre Wilkens hat er im Herbst 2015 die bundesweite Debattenreihe »Die offene Gesellschaft – Welches Land wollen wir sein?« initiiert.

    Andre Wilkens ist ebenfalls Politikwissenschaftler, der viele Jahre in Brüssel, London, Turin und Genf gelebt und dort für die EU, Stiftungen und die UNO gearbeitet hat. Bis 2015 leitete er das Projektzentrum Berlin der Stiftung Mercator. Davor hat er das Open Society Institute (OSI) der Soros Stiftung in Brüssel geleitet sowie die Aktivitäten von dem Milliardär George Soros in Europa koordiniert.

    Durch solche indirekten Verbindungen können die Unabhängigkeit und Objektivität der Organisation in Frage gestellt werden. Diese Nähe könnte die Art und Weise beeinflussen, wie sie ihre Forschung und Beratung durchführt.

    Die im Jahr 2019 veröffentlichte adelphi-Studie „Convenient Truths – Mapping climate agendas of right-wing populist parties in Europe“ wirft ebenfalls einige Fragen hinsichtlich der Finanzierung auf. Auf Nachfrage zu diesem Thema liefert adelphi eine widersprüchliche Antwort:

    adelphis Arbeit ist projektfinanziert, es gibt keine projektunabhängige Förderung durch externe Körperschaften. Die Studie „Convenient Truths – Mapping climate agendas of right-wing populist parties in Europe” wurde aus Eigenmitteln finanziert.

    Als Beratungsorganisation ist adelphi stark von Projekten und Aufträgen abhängig, die oft von Regierungen und internationalen Organisationen finanziert werden. Diese Abhängigkeit könnte dazu führen, dass die Organisation weniger bereit ist, kontroverse oder unbequeme Positionen einzunehmen, die ihre Finanzierung gefährden könnten.


    1.3. Die Übung

    Die „Food Chain Reaction“-Übung war eine strategische Initiative, die durch eine Public-Private Partnership durchgeführt wurde, um Regierungsbehörden und Entscheidungsträger aus verschiedenen Sektoren durch eine gezielt vorbereitete Simulation für die Herausforderungen und komplexen Dynamiken einer globalen Nahrungsmittelkrise zu sensibilisieren.

    Die Übung basierte auf mehreren hypothetischen Szenarien für den Zeitraum 2020-2030, die extreme Wetterereignisse, Ernteausfälle, steigende Nahrungsmittelpreise, politische Instabilität und Migration umfassten. Diese Szenarien wurden entwickelt, um herausfordernde Bedingungen zu simulieren und die Entscheidungsträger zur schnellen und effektiven Reaktion zu zwingen. Damit sollte das Bewusstsein der Teilnehmer für die Zusammenhänge zwischen Klimawandel, Nahrungsmittelproduktion, geopolitischer Stabilität und wirtschaftlichen Faktoren geschärft werden.

    Die wichtigsten Details dieser Übung werden in einem Werbefilm präsentiert, den das Metanoia Magazin (ehemals ExpressZeitung) mit deutschen Untertiteln versehen hat.

    Zusammenschnitt aus der Sendung „«Food Chain Reaction» von John Podesta & Co. – War es das Event 201 für eine globale Hungerkrise?

    Die Teilnehmer aus den USA, Brasilien, China, Indien, Europa und Afrika – also vor allem aus den führenden Ländern in der Nahrungsmittelproduktion – wurden in sechs Teams aufgeteilt. Das siebte Team vertrat Unternehmen und Investoren, und das achte Team repräsentierte multilaterale Institutionen wie die Weltbank, die Vereinten Nationen und Nichtregierungsorganisationen.

    Bei dem Aufbau der Extremsituation konzentrierte man sich gezielt auf folgenden Stressvektoren:

    • Klimawandel und extreme Wetterereignisse
    • Politische und wirtschaftliche Instabilität
    • Bevölkerungswachstum und Urbanisierung

    Nichts schweißt mehr zusammen als ein gemeinsamer Feind. Hinter diesem Spruch verbirgt sich die Tatsache, dass in Extremsituationen bestimmte biopolitische Regierungstechniken in den Vordergrund treten. Dabei spielt die Fürsorge im Rahmen einer Solidaritätsdoktrin eine zentrale Rolle.

    Ein von den Organisatoren der Übung zusammengestelltes Team aus „Experten“ moderierte und leitete die Diskussionen der Teilnehmer. Diese „intensive Betreuung“ trug dazu bei, dass die Teilnehmer leichter erkennen konnten, welche Lösungsansätze funktionieren und welche nicht.

    Vor diesem Hintergrund erscheinen die Ergebnisse der Übung als „alternativlos“. Diese kann man wie folgt zusammenfassen:

    Global Governance

    Während am Anfang hervorgehoben wurde, dass nationale Lösungsansätze eher zum Scheitern verurteilt sind, kommt man am Ende der Übung zur einzigen guten und richtigen Lösung: die Global Governance! Die Übung betonte die Bedeutung von multisektoralen Ansätzen, bei denen Akteure aus verschiedenen Bereichen (Regierung, Privatsektor, NGOs) zusammenarbeiten müssen, um umfassende Lösungen zu finden.

    Die Teams haben ihr Engagement für globale und regionale Kooperation und Zusammenarbeit in Krisenzeiten vertieft, was zum großen Teil darauf zurückzuführen ist, dass die Akteure offen zugaben, dass keine Nation, keine Organisation und kein Unternehmen allein die globale Ernährungssicherheit adäquat angehen kann.

    Globale CO2-Steuer

    Die Entwicklung und Implementierung von politischen Maßnahmen, die den Klimawandel adressieren, spielte eine wichtige Rolle bei der Definition der geeigneten Lösungsansätze.

    Der Zusammenhang zwischen Klima und Ernährungssicherheit wurde von einer Vielzahl von Staats- und Regierungschefs, die an dem Spiel teilnahmen, erkannt. Darüber hinaus einigten sich die Teams darauf, Umweltdienstleistungen zu bepreisen, Kohlenstoff zu bepreisen, die Entwicklung eines Marktes für den Kohlenstoffhandel zu unterstützen und die globalen Emissionswerte zu begrenzen.

    Die Neue Normalität ist Volatilität

    Im weiteren Verlauf des Spiels sahen sich die Teams mit einer „neuen Normalität“ konfrontiert, die in hohem Maße durch Unbeständigkeit und Unsicherheit gekennzeichnet war. Zu den wichtigsten Initiativen zur Bekämpfung dieser Situation gehörten: Stärkung bestehender Institutionen und Behörden im Rahmen der Vereinten Nationen, Schaffung eines neuen strategischen Hauptquartiers im Rahmen der Vereinten Nationen, um den Einsatz militärischer und nichtmilitärischer Mittel durch die Mitgliedstaaten besser zu koordinieren und Materialien in Gebieten mit absehbarem Bedarf bereitzustellen. Es entwickelte sich ein breiter Konsens über die Notwendigkeit zeitnaher, relevanter und glaubwürdiger globaler Informationen über Faktoren und Indikatoren der Ernährungssicherheit. Die letzte Spielrunde gipfelte in der Einberufung eines globalen Gipfeltreffens über Klimasicherheit und Verwundbarkeit, bei dem Vertreter aller Teams, … den Wunsch nach einem robusteren globalen Koordinationsmechanismus mit größerer Kapazität zur Reaktion auf klimabedingte Konflikte und die Volatilität des Ernährungssystems äußerten.


    1.4. Einige Schlussfolgerungen

    Die Auswahl und Priorisierung der Stressvektoren wie Klimawandel, politische Instabilität und Bevölkerungswachstum richtete den Fokus bereits zu Beginn auf globale und umfassende Krisenszenarien, die nationale Lösungsansätze als nicht ausreichend erscheinen ließen. Dies deutet auf eine gewisse Vorbestimmtheit der Übungsergebnisse hin, die weniger alternative Lösungswege auf nationaler oder lokaler Ebene zuließen.

    Ein weiterer Punkt ist die „intensive Betreuung“ durch ein Team aus Organisatoren und Experten, die die Diskussion lenkten und moderierten. Diese strukturelle Eingrenzung hat möglicherweise die Perspektiven und Lösungsansätze der Teilnehmer stark geprägt und dafür gesorgt, dass der favorisierte Lösungsansatz der Global Governance als „alternativlos“ erscheint.

    Zusätzlich wurde der Lösungsansatz der globalen CO2-Bepreisung und des Emissionshandels hervorgehoben, was zeigt, dass die Übung auch klar definierte wirtschaftliche und regulatorische Maßnahmen befürwortete, die auf globaler Ebene durchgesetzt werden sollen.

    Das Fehlen von kleinen und mittelständischen landwirtschaftlichen Unternehmen als direkte Teilnehmer bei der „Food Chain Reaction“-Übung ist ebenfalls bemerkenswert, insbesondere da sie zentrale Akteure im Agrarsektor in vielen Regionen der Welt sind. Die Übung konzentrierte sich hauptsächlich auf die politischen und wirtschaftlichen Entscheidungen, die von Regierungsbehörden, großen Unternehmen und internationalen Organisationen getroffen werden.

    Anstatt reale Ereignisse zu analysieren, nutzte die Übung hypothetische Szenarien, um die Auswirkungen von Klimawandel, politischen Instabilitäten und wirtschaftlichen Faktoren auf die Nahrungsmittelversorgung zu simulieren. Der Fokus lag auf der Entwicklung von politischen Maßnahmen und internationalen Kooperationen basierend auf vordefinierten Narrativen. Eine Übung, die auf simulierten Szenarien basiert und hauptsächlich hochrangige Akteure einbezieht, kann die realen Bedingungen und Herausforderungen, denen Farmer und lokale Gemeinschaften gegenüberstehen, nicht vollständig berücksichtigen. Ohne die direkte Beteiligung von kleineren Akteuren geraten wichtige praktische Einsichten und Bedürfnisse, die für die Umsetzung von Strategien auf lokaler Ebene entscheidend sind, in den Hintergrund.

    Dieser Top-Down Ansatz bei der Herangehensweise zur Sicherung der globalen Nahrungsmittelversorgung schafft eine Umgebung, bei der kleine und mittelständische Unternehmen zunehmend in Abhängigkeit von wenigen globalen Akteuren geraten. Dies geschieht in der Praxis auf verschiedene Art und Weise:

    a) Technologie und Innovation

    Große Unternehmen investieren erheblich in Forschung und Entwicklung neuer landwirtschaftlicher Technologien und Methoden. Bei dem Zugang zu diesen Innovationen sind kleine und mittelgroße Bauern zunehmend von den Angeboten und Konditionen, die von großen Agrarkonzernen diktiert werden, abhängig.

    b) Marktzugang und Vertrieb

    Große Unternehmen kontrollieren einen signifikanten Teil der globalen Nahrungsmittelversorgungsketten. Um ihre Produkte auf den Markt zu bringen, sind kleine und mittelgroße Bauern in den meisten Fällen auf diese etablierten Vertriebskanäle angewiesen, was ihre Abhängigkeit von den großen Playern erhöht.

    c) Finanzielle Unterstützung und Ressourcen

    Große Unternehmen und Finanzinstitute bieten oft die nötige finanzielle Unterstützung und Ressourcen, die für die Modernisierung und Skalierung der landwirtschaftlichen Produktion erforderlich sind. Dies kann kleine und mittelgroße Akteure in eine Position bringen, in der sie Kredite und Investitionen dieser großen Player benötigen. Solche finanziellen Abhängigkeiten könnten die Entscheidungsfreiheit der Bauern in Bezug auf Anbaumethoden, Pflanzensorten und Marktzugang einschränken.

    d) Regulierungen und Standards

    Große Unternehmen haben oft die Ressourcen, um strenge Regulierungen und Qualitätsstandards zu erfüllen und sogar mitzugestalten. Kleine und mittelgroße Betriebe müssen sich diesen Standards anpassen, was ihre Produktionskosten und Abhängigkeit von den großen Unternehmen, die diese Standards setzen, weiter erhöht.

    Zusammenfassend scheint die „Food Chain Reaction“-Übung eine starke Präferenz für globale, zentralisierte Lösungen zu haben. Das Szenario und die Ausgestaltung der Übung deuten auf eine Voreingenommenheit hin, die potenzielle nationale oder dezentralisierte Ansätze weniger in Betracht zog, was Fragen zur Objektivität der Übung aufwirft.


    1.5. Von der Simulation zur Realität

    Die Zukunft kann man am besten voraussagen,
    wenn man sie selbst gestaltet.
    Alan Curtis Kay – amerikanischer Informatiker

    Die „Food Chain Reaction“-Übung simulierte eine globale Nahrungsmittelkrise, die sich aus einer Kombination klimatischer, wirtschaftlicher und geopolitischer Faktoren für den Zeitraum von 2020 bis 2030 ergab. Obwohl die Übung den Fokus auf eine Klimakatastrophe legte, lassen sich viele der in der Simulation durchgespielten Szenarien auf die tatsächlichen Ereignisse im Zeitraum 2020 bis 2024 übertragen.

    Die Ära der Volatilität wurde im Jahr 2020 eingeläutet. Während sie in der Simulation durch den Klimawandel und extreme Wetterereignisse in dem Zeitraum 2020-2022 begründet wird, erlebten wir in der Realität die Auswirkungen der Covid-19 Pandemie.

    Eine globale Ernährungskrise von unbekanntem, wohl aber enormem Ausmaß steht uns bevor. Auslöser dieser Krise sind der Ausbruch der COVID-19-Pandemie und die weltweit verhängten Maßnahmen zu ihrer Bekämpfung und Eindämmung, gepaart mit den massiven wirtschaftlichen Auswirkungen dieser notwendigen Maßnahmen. Konflikte, Naturkatastrophen und ganze Kontinente erfassende Schädlingsplagen und Seuchen waren schon vor der Pandemie ein Problem und stellen vielerorts eine zusätzliche Belastung dar. Doch auch die Funktionsweise unserer Ernährungssysteme birgt tiefgreifende strukturelle Probleme, die wir nicht länger ignorieren können.“

    ist in dem UN-Dokument „Die Auswirkungen von COVID-19 auf Ernährungssicherheit und Ernährung“ vom Juni 2020 zu lesen.

    Die COVID-19-Pandemie hatte von 2020 bis 2022 weitreichende Auswirkungen auf die globale Nahrungsmittelversorgung. Eine der gravierendsten Folgen war die Unterbrechung der Lieferketten. Lockdowns, Grenzschließungen und Quarantänemaßnahmen führten weltweit zu logistischen Herausforderungen, die den Transport von Lebensmitteln und landwirtschaftlichen Erzeugnissen massiv beeinträchtigten. Dies führte zu Verzögerungen, Engpässen und erheblichen Preisschwankungen. Zudem standen Landwirte in vielen Ländern vor einem akuten Arbeitskräftemangel, da COVID-19-bedingte Einschränkungen den Zugang zu saisonalen Arbeitskräften stark einschränkten. Diese Arbeitskräfte waren jedoch entscheidend für die Ernte und Verarbeitung von Lebensmitteln.

    Die wirtschaftlichen Auswirkungen der Pandemie, trieben die Lebensmittelpreise in die Höhe, insbesondere in Ländern mit geringer Eigenproduktion. In einigen Ländern kam es zudem zu Versorgungsengpässen bei importabhängigen Lebensmitteln. Millionen von Menschen, vor allem in Entwicklungsländern, verloren ihre Einkommensquellen und konnten sich grundlegende Lebensmittel nicht mehr leisten. Auch die landwirtschaftliche Produktion litt unter den Auswirkungen der Pandemie. Produktionsausfälle wurden durch den Arbeitskräftemangel, unterbrochene Lieferketten und eingeschränkten Zugang zu Betriebsmitteln wie Saatgut und Düngemitteln verursacht. 

    Kleinbauern, insbesondere in den Entwicklungsregionen, die oft aus wirtschaftlich prekären Verhältnissen kommen, waren die Hauptleidtragenden dieser Krise. Der einbrechende Handel, die Schließung von Dorfmärkten und heimische Reisebeschränkungen stellten eine echte Gefahr für ihre Existenz dar.

    „Um Kleinbauern in Asien, Afrika und Lateinamerika zu unterstützen, die aufgrund von COVID-19 vor zusätzlichen Herausforderungen stehen, stellt Bayer als Teil seines gesellschaftlichen Engagements und im Rahmen seiner neuen Initiative „Better Farms, Better Lives“ den Kleinbauern Saatgut und Pflanzenschutzmittel zur Verfügung und unterstützt sie bei Fragen des Marktzugangs sowie bei der Sorge für ihre Gesundheit und ihre Sicherheit.Bayer engagiert sich dafür, 100 Millionen Kleinbauern in Ländern mit geringem bis mittlerem Einkommensniveau bis 2030 zu helfen. Die schnelle Reaktion auf COVID-19 durch die Initiative „Better Farms, Better Lives“ ergänzt die laufende Unterstützung von Kleinbauern, die sowohl zu mittelfristigen Verbesserungen als auch zu langfristiger Widerstandsfähigkeit beitragen wird. Darüber hinaus wird Bayer seine Partnerschaften mit Regierungen, international anerkannten Nichtregierungsorganisationen und lokalen Organisationen ausbauen, um so in Zusammenarbeit mit anderen die größtmögliche Unterstützung für Kleinbauern sicherzustellen. Dazu gehören die Schaffung eines Kleinbauern-Kompetenzzentrums für den Austausch über Erfolge, die Bereitstellung eines beschleunigten Zugangs zu digitalen Landwirtschafts-Tools zur Steigerung der Leistungsfähigkeit, der Ausbau bestehender und neuer Partnerschaften entlang der Wertschöpfungskette und die Ausweitung solcher Partnerschaften in den Ländern im asiatisch-pazifischen Raum.“

    ist in der Pressemitteilung der Bayer AG vom 17. Juni 2020 zu lesen.

    Diese noble Geste ist eine praktische Demonstration dafür, wie Kleinbauern und Regierungen durch Partnerschaften zunehmend in Abhängigkeit von wenigen globalen Akteuren geraten. Der Beitrag von Bayer mit dem Titel „Sind unsere Nahrungsmittel­ketten COVID-19 gewachsen?“ vom Mai 2024 enthält weitere klare Formulierungen in diesem Zusammenhang:

    Wir können nicht zurück zu rein lokalen Nahrungsmittelketten. Wir leben in einem globalen Ernährungssystem. Wir müssen intelligente globale Ernährungssysteme entwickeln, die nachhaltig sind, auf dem Prinzip der Kreislaufwirtschaft beruhen und die Kleinbauern aktiv einbeziehen.

    Mithilfe von Technologie und Daten könnte dies gelingen. Diese Pandemie hat langfristige Auswirkungen auf alle Regionen unserer Welt … Sie könnte dazu führen, dass mehr Technologie eingesetzt wird, etwa Roboter in der Kommissionierung, in Lagern und Kühlhäusern.

    Auch die Datennutzung wird zunehmen. An allen Punkten in der Lieferkette werden künftig mehr Daten gesammelt. Je mehr Daten wir haben, desto genauer sind unsere Modelle und Vorhersagen.

    Aufgrund des Coronavirus werden wir unsere aktuellen Lebensmittelsysteme überdenken. Dies bietet Möglichkeiten für Übergänge, wodurch unsere derzeitigen Systeme widerstandsfähiger und nachhaltiger und globale Systeme intelligenter werden. Um dies zu erreichen, sind enge und effektive Kooperationen zwischen der Wissenschaft sowie dem privaten und öffentlichen Sektor erforderlich.

    Inwieweit diese Aussagen als „Widerstand ist zwecklos. Sie werden assimiliert.“ interpretiert werden können, hängt davon ab, wie die unvermeidliche Anpassung der traditionell eher lokal und weniger technologieintensiv arbeitenden Kleinbauern an diese neuen Standards erfolgt. Entscheidend ist, wie diese Integration gestaltet wird – ob sie die Autonomie und traditionellen Kenntnisse der Kleinbauern respektiert oder ob sie tatsächlich wie eine erzwungene Anpassung wirkt. Die nahe Zukunft wird es zeigen.

    In den Jahren 2022-2024 eskaliert die Nahrungsmittelkrise in der Food-Chain-Reaction Simulation weiter. Als treibende Kräfte werden unter anderem der drastische Anstieg der Ölpreise, zunehmende Unruhen, steigende Migration, der weitere Anstieg der Lebensmittelpreise sowie Hitzestress in Russland und der Ukraine genannt, der die Getreidevorräte reduziert.

    In der realen Welt eskalierte die kontroverse Diskussion um die zukünftige geopolitische Orientierung der Ukraine im Februar 2022 zu einer offenen kriegerischen Auseinandersetzung zwischen Russland und der Ukraine, bei der auch die EU und die NATO indirekt involviert sind.

    Der Krieg zwischen Russland und der Ukraine hat seit 2022 erhebliche Auswirkungen auf die globale Nahrungsmittelversorgung. Beide Länder sind bedeutende Exporteure von Weizen, Mais und Sonnenblumenöl und stellten vor dem Krieg gemeinsam fast ein Drittel des weltweiten Weizenexports. Durch den militärischen Konflikt und die Blockaden im Schwarzen Meer wurden diese Exporte insbesondere in dem Zeitraum 2022-2023 stark beeinträchtigt, was zu einer globalen Verknappung von Getreide führte. Besonders Regionen wie der Nahe Osten und Nordafrika, die stark von Importen abhängig sind, spürten die Auswirkungen in Form von steigenden Preisen und erhöhter Ernährungsunsicherheit.

    Die Verknappung von Getreide hat weltweit zu einem starken Anstieg der Lebensmittelpreise geführt, was vor allem einkommensschwache Haushalte hart trifft. Zusätzlich hat der Krieg den Düngemittelmarkt stark belastet, da Russland ein wichtiger Exporteur von Düngemitteln und deren Bestandteilen ist. Die Sanktionen gegen Russland und die daraus resultierenden Lieferkettenstörungen führten zu höheren Düngemittelpreisen, was viele Landwirte zwang, weniger Düngemittel zu verwenden, wodurch die Ernteerträge sanken und die globale Nahrungsmittelkrise weiter verschärft wurde.

    Die Krise hat auch weitreichende politische und wirtschaftliche Konsequenzen. Sanktionen gegen Russland und Handelsbeschränkungen haben die globalen Lieferketten für landwirtschaftliche Produkte und die Finanzströme zusätzlich belastet. Viele Länder, insbesondere Entwicklungsländer, die auf Importe aus Russland und der Ukraine angewiesen sind, kämpfen nun mit Ernährungsunsicherheit und sozialen Unruhen. In einigen Regionen führte dies zu humanitären Notlagen.

    Der Krieg in der Ukraine hat weiterhin zu einem Anstieg der Preise und Versorgungsengpässen bei wichtigen Energieträgern wie Gas und Kraftstoffen (Benzin, Diesel) beigetragen. Dies brachte spürbare Mehrkosten für Landwirte und Unternehmen der Ernährungsindustrie mit sich. In der Folge stiegen die Erzeugerpreise für landwirtschaftliche Produkte, insbesondere in Europa, deutlich an. Zusammen mit der durch die Rekordinflation belasteten Verbraucherstimmung erhöhte sich der Druck auf Unternehmen im landwirtschaftlichen Sektor erheblich.

    Als Folge dieser Entwicklung hat die EU die bereits beschlossenen Krisenhilfen für Landwirte im Mai 2024 weiter verlängert. Ursprünglich wurde der befristete Krisenrahmen nach dem russischen Angriff auf die Ukraine vor zwei Jahren eingeführt. Die finanziellen Unterstützungsmaßnahmen zielen darauf ab, insbesondere die zusätzlichen Kosten für Energie und Düngemittel, die den Landwirten durch die Krise entstanden sind, abzudecken. Während diese staatlichen Hilfen den Bauern in akuten Krisenzeiten wertvolle Unterstützung bieten, könnte ihre langfristige Gewährung jedoch zu einer Abhängigkeit von staatlicher Hilfe führen. Wenn Bauern wiederholt auf Subventionen angewiesen sind, um wirtschaftlich überleben zu können, könnte dies ihre Fähigkeit beeinträchtigen, unabhängig von staatlichen Eingriffen zu operieren. In diesem Zusammenhang berichtete die Tagesschau im Dezember 2022 wie folgt:

    Der größte Posten im EU-Haushalt sind mit 450 Milliarden Euro die Agrarsubventionen.

    Jedes Jahr verteilt die Europäische Kommission mehr als 50 Milliarden Euro Agrarsubventionen. Deutschland profitiert nach Frankreich und Spanien am meisten davon. Mehr als 400.000 Empfänger bekamen hierzulande seit 2014 gut 53 Milliarden Euro. Deutsche Landwirte erhielten im Schnitt für die vergangenen acht Jahre 127.000 Euro. Doch die Schere geht weit auseinander: Das oberste Prozent der Empfänger erhielt fast ein Viertel aller Subventionen – also mehr als zwölf Milliarden Euro oder knapp 30.000 Euro pro Betrieb im Monat. Die gesamte untere Hälfte der kleinen landwirtschaftlichen Betriebe und Landwirte zusammen dagegen weniger als vier Milliarden. Das sind gerade einmal 200 Euro pro Betrieb im Monat.

    Die problematischen Tendenzen zeigen sich in ganz Europa. In den acht untersuchten Ländern gehören vor allem große Unternehmen und öffentliche Einrichtungen zu den Profiteuren der Subventionen. In allen Ländern nehmen wenige große Empfänger das meiste Geld ein. Die Verteilung ist oft sogar noch ungleicher als in Deutschland. Das oberste Prozent der Empfänger kassiert in Europa mehr als ein Drittel aller Subventionen.

    Der Ukraine-Krieg hat die wirtschaftliche Lage vieler EU-Bauern verschärft und ihre Abhängigkeit von staatlichen Hilfen weiter verstärkt. Diese Entwicklung könnte langfristig dazu führen, dass die Landwirtschaft noch stärker in staatliche Unterstützungsmechanismen eingebunden wird. Staatliche Programme und Subventionen können an Bedingungen geknüpft sein, die Bauern zur Übernahme bestimmter Technologien oder Praktiken zwingen, was es den Regierungen erleichtert, ihre agrarpolitischen Ziele durchzusetzen.

    In Krisenzeiten, wie etwa während des Ukraine-Kriegs, steigt die Akzeptanz für staatliche Eingriffe und die damit verbundenen Narrative. Diese Umstände bieten die Gelegenheit, den Übergang zu einer „grüneren“ Landwirtschaft oder die Einführung neuer Technologien als notwendige Entwicklungen zu positionieren. Kritische Stimmen gegenüber solchen Narrativen werden in diesem Kontext oft als wenig zielführend oder als hinderlich für das Gemeinwohl wahrgenommen. Langfristig könnte jedoch eine verstärkte Abhängigkeit von staatlichen Subventionen die Flexibilität der Landwirte einschränken und ihre Fähigkeit sowie Bereitschaft, eigenständige Alternativen zu verfolgen, beeinträchtigen.

    Diese Dynamik erleichtert es Regierungen, landwirtschaftliche Strategien und Narrative durchzusetzen, wodurch die Implementierung von Top-Down-Ansätzen in der Landwirtschaft, wie während der „Food Chain Reaction“-Übung geprobt, fast zwangsläufig wird.

    2. Die vierte industrielle Revolution und die Gestaltung der Lebensmittelsysteme

    Die „Food Chain Reaction“-Übung modellierte eine Reihe von Krisenereignissen, die die Stabilität des globalen Ernährungssystems bedrohten und rasch zu Lebensmittelknappheit, Preissteigerungen sowie politischen Unruhen in einer vernetzten Welt führten. Das Hauptziel bestand darin, hochrangige Akteure aus Politik und Wirtschaft für Lösungsansätze im Bereich der Global Governance zu sensibilisieren.

    In diesem Kontext hat das Weltwirtschaftsforum (WEF) im Jahr 2018 in Zusammenarbeit mit dem Beratungsunternehmen McKinsey den Bericht „Innovation with a Purpose: The role of technology innovation in accelerating food systems transformation“ veröffentlicht. Der Bericht baut auf Erkenntnissen und Szenarien der „Food Chain Reaction“-Übung auf und schlägt konkrete technologische und politische Maßnahmen vor, die das globale Ernährungssystem grundlegend transformieren können.

    Das Dokument unterstreicht die zentrale Rolle von Technologie und Innovation bei der Neugestaltung globaler Ernährungssysteme, um drängende Herausforderungen wie Ernährungsunsicherheit, Klimawandel und die Förderung nachhaltiger Entwicklung zu bewältigen. Insbesondere das rasche Bevölkerungswachstum in städtischen Gebieten erhöht die Nachfrage nach Lebensmitteln und verändert Konsummuster, wodurch der Druck auf landwirtschaftliche Ressourcen steigt und bestehende Ineffizienzen in Produktion und Verteilung weiter verstärkt werden.

    Die Verfasser beschreiben die Landwirtschaft als einen Sektor mit doppelter Verantwortung: Zum einen trägt sie erheblich zum Klimawandel bei, zum anderen ist sie stark von dessen Folgen betroffen, darunter Bodenerosion, Wasserknappheit und der Verlust an biologischer Vielfalt. Diese Probleme verschärfen Ernährungsunsicherheit und Mangelernährung, die trotz globaler Fortschritte weiterhin bestehen. Zudem wird auf erhebliche Verluste entlang der Wertschöpfungskette hingewiesen, was die ungleiche Nutzung von Ressourcen weiter verstärkt.

    Innovative Technologien werden als entscheidende Lösungsansätze hervorgehoben. So wird betont, dass digitale Ansätze wie Big Data, Künstliche Intelligenz (KI) und das Internet der Dinge (IoT) dazu beitragen können, landwirtschaftliche Prozesse effizienter zu gestalten, den Ressourceneinsatz zu optimieren und datenbasierte Entscheidungen in Echtzeit zu ermöglichen. Auch Fortschritte in der Biotechnologie, insbesondere durch Verfahren wie CRISPR-Cas9 zur gezielten Veränderung von DNA, bieten neue Möglichkeiten, widerstandsfähigere Pflanzen- und Tierarten zu entwickeln, die besser an Krankheiten und klimatische Veränderungen angepasst sind. Diese Entwicklungen leisten einen wichtigen Beitrag zu nachhaltigem Wachstum und einer zukunftsfähigen Landwirtschaft.

    Zusätzlich weisen die Autoren darauf hin, dass innovative Produktionsmethoden wie die vertikale Landwirtschaft, In-vitro-Fleisch und alternative Proteinquellen (z. B. Insekten) vielversprechende Möglichkeiten bieten könnten, die Lebensmittelproduktion nachhaltiger und ressourcenschonender zu gestalten. Blockchain-Technologie wird ebenfalls als potenziell wirkungsvolles Instrument beschrieben, um Transparenz und Rückverfolgbarkeit in globalen Lieferketten zu erhöhen. Dies könne nicht nur Betrug und Verunreinigungen reduzieren, sondern auch das Vertrauen der Verbraucher in die Herkunft und Qualität von Lebensmitteln stärken.

    Innovation mit Sinn und Zweck (Bild 4): Kombinationen von 4IR-Technologien können Innovationen zur Lösung von Herausforderungen in Lebensmittelsystemen ermöglichen

    Das World Economic Forum (WEF) ist eine einflussreiche, weltweit agierende Organisation und bietet eine bedeutende Plattform für den Austausch von Ideen und Strategien zwischen führenden Persönlichkeiten aus Politik, Wirtschaft und Gesellschaft. Es spielt eine zentrale Rolle bei der Gestaltung globaler Agenden. Durch Berichte, Studien und Initiativen adressiert das WEF wichtige Themen wie Klimawandel, Digitalisierung, soziale Ungleichheit und die Zukunft der Arbeit. Viele Regierungen und Unternehmen orientieren sich an den Empfehlungen und Diskussionen, die vom WEF initiiert werden.

    Das WEF fördert zudem die Zusammenarbeit zwischen Regierungen und der Privatwirtschaft.  Diese Partnerschaften beeinflussen politische Entscheidungen und wirtschaftliche Entwicklungen erheblich. Angesichts dieses weitreichenden Einflusses ist es sinnvoll, einige der Lösungsansätze im genannten Bericht des WEF genauer zu analysieren.

    2.1. Veränderung der Nachfrage

    a) Alternative Proteine

    Die Verfasser des Berichts betonen, dass eine ausreichende Eiweißversorgung essenziell für eine gesunde Ernährung ist. Mit dem globalen Bevölkerungswachstum auf bald 9 Milliarden Menschen und veränderten Essgewohnheiten durch steigenden Wohlstand und Urbanisierung nimmt die Nachfrage nach tierischem Eiweiß weltweit zu. Diese Entwicklung könnte zwar die Ernährungssituation unterversorgter Menschen verbessern, bringt jedoch erhebliche Umweltprobleme mit sich. Wie im Bericht hervorgehoben, „verursacht die Viehwirtschaft rund 15 % der globalen Treibhausgasemissionen, verbraucht etwa 10 % des weltweiten Süßwassers und beansprucht mehr als ein Viertel der eisfreien Landfläche.“

    Um diesen Herausforderungen zu begegnen, sieht das WEF die Versorgung mit sicheren, erschwinglichen und nachhaltig erzeugten Proteinquellen als entscheidend für die Zukunft an. Alternative Proteine aus ökologisch schonenderen Quellen wie Insekten, Pflanzen, Aquakulturen und Zellkulturen könnten vielversprechende Alternativen zu herkömmlichen Proteinen für den menschlichen und tierischen Verzehr darstellen.

    Innovation mit Sinn und Zweck: Alternative Proteine

    Damit diese alternativen Proteinquellen von Verbrauchern akzeptiert werden, empfiehlt der Bericht, nationale Medienkampagnen und Öffentlichkeitsarbeit mit gezielten Vorschriften und finanziellen Anreizen zu kombinieren. Zudem soll durch technologische Fortschritte sichergestellt werden, dass entsprechende Produkte in Hinblick auf Nährstoffgehalt, Geschmack und Textur mindestens gleichwertig und zu wettbewerbsfähigen Preisen verfügbar gemacht werden.

    Gesagt, getan: „Pflanzliche Proteinquellen werden für eine pflanzenbetonte Ernährung an Bedeutung gewinnen. Die Bundesregierung wird Maßnahmen prüfen, wie sie diese Entwicklung effektiv unterstützen kann.“ … „Der Absatz von Alternativen zu tierischen Lebensmitteln hat über die vergangenen Jahre zwar zugenommen, bewegt sich aber nach wie vor auf relativ niedrigem Niveau. Eine Innovationsförderung für Hersteller könnte Barrieren für den Markteintritt senken, den Wettbewerb erhöhen und damit letztlich zu niedrigeren Preisen für Verbraucherinnen und Verbraucher führen. Darüber hinaus kann auch die Unterstützung des Matchings von Anbauern und Verarbeitern einen wichtigen Beitrag leisten. Beide Aspekte sind im Rahmen der Bekanntmachung des BMEL zu alternativen Proteinquellen für die Humanernährung adressiert“, ist in dem aktuellen Ernährungsstrategiepapier (Seite 23 und 25) des Bundesministeriums für Ernährung und Landwirtschaft (BMEL) zu lesen.

    Die europäischen Landwirtschaftsminister befassen sich derzeit intensiv mit der Frage, wie „neuartige Lebensmittel“ eingeführt werden können, ohne die „kulinarische Tradition“ aus dem Blick zu verlieren – ein Thema, das intensive Debatten auslöst. Der Begriff „neuartige Lebensmittel“ ist weit gefasst und beinhaltet verschiedene Arten von Produkten, einschließlich essbarer Insekten und vegetarischer Alternativen zu Milchprodukten und Fleisch. Laut der Europäischen Kommission hat sich der Konsum von vegetarischen Alternativen zu Fleisch, Milchprodukten und Meeresfrüchten seit 2011 verfünffacht und wird voraussichtlich weiterhin zunehmen. Die EU hat bislang den Verkauf von vier Insektenarten zugelassen, während mindestens acht weitere Anträge derzeit geprüft werden. Am 26. Juli 2024 wurde der erste EU-Antrag für Verkauf von Labor gezüchtetem Fleisch gestellt.

    Während die Diskussionen unter den EU-Landwirtschaftsministern über „neuartige Lebensmittel“ nach wie vor kontrovers verlaufen, vertreten viele der führenden Agrar- und Lebensmittelproduzenten der EU die Ansicht, dass Innovationen und Traditionen durchaus nebeneinander bestehen können. Sie sind überzeugt, dass neue Lebensmitteloptionen die kulinarische Kultur der EU nicht gefährden müssen. Der italienische Landwirtschaftsminister Francesco Lollobrigida, der seine Ablehnung von künstlich erzeugtem Fleisch bekräftigt hat, beschreibt das Dilemma der EU-Politiker in einfachen Worten: „Ich sehe nicht den Wunsch, irgendeinen Prozess zu verlangsamen, sondern vielmehr das Bedürfnis, zu wissen, in welche Richtung es geht.

    In welche Richtung es geht, ist eindeutig in dem Amtsblatt der Europäischen Union vom 03. Januar 2023 beschrieben:

    (7) In ihrem wissenschaftlichen Gutachten gelangte die Behörde zu dem Schluss, dass teilweise entfettetes Pulver aus Acheta domesticus (Hausgrille) unter den vorgeschlagenen Verwendungsbedingungen in den vorgeschlagenen Mengen sicher ist. Das wissenschaftliche Gutachten bietet folglich ausreichende Anhaltspunkte dafür, dass teilweise entfettetes Pulver aus Acheta domesticus (Hausgrille) bei Verwendung in Mehrkornbrot und -brötchen, Crackern und Brotstangen, Getreideriegeln, trockenen Vormischungen für Backwaren, Keksen, trockenen gefüllten und ungefüllten Erzeugnissen aus Teigwaren, Soßen, verarbeiteten Kartoffelerzeugnissen, Gerichten auf Basis von Leguminosen und Gemüse, Pizza, Erzeugnissen aus Teigwaren, Molkenpulver, Fleischanalogen, Suppen und Suppenkonzentraten oder -pulver, Snacks auf Maismehlbasis, bierähnlichen Getränken, Schokoladenerzeugnissen, Nüssen und Ölsaaten, Snacks außer Chips sowie Fleischzubereitungen für die allgemeine Bevölkerung den Bedingungen für das Inverkehrbringen gemäß Artikel 12 Absatz 1 der Verordnung (EU) 2015/2283 genügt.

    Die Behörde stellt in ihrem Bericht weiterhin fest, dass diese neuartigen Lebensmittel Proteine enthält, die potenziell allergieauslösend sein können. Zwar liegen der Behörde bisher keine eindeutigen Beweise für schwerwiegende allergische Reaktionen vor, dennoch wird auf die Möglichkeit hingewiesen, dass der Verzehr Allergien auslösen könnte.

    Dabei ist das Risikopotential bereits seit Jahren bekannt. In einem wissenschaftlichen Artikel aus dem Jahr 2018 mit dem Titel „The house cricket (Acheta domesticus) as a novel food: a risk profile“ betont ein internationales Forscherteam, dass Grillen bei bestimmten Menschen allergische Reaktionen auslösen können. Das liegt daran, dass Grillen und andere Arthropoden wie Garnelen, Krabben und Hummer ähnliche Eiweiße enthalten. Diese Eiweiße können bei Allergikern ähnliche Reaktionen hervorrufen. Da der Konsum von Insekten weltweit voraussichtlich zunimmt, könnte es auch zu einer Zunahme allergischer Reaktionen auf diese Insektenarten kommen.

    Darüber hinaus enthalten Grillen auch spezifische Allergene wie Hexamerin B1, dessen allergenes Potenzial noch nicht vollständig verstanden ist. Um Gesundheitsrisiken zu vermeiden, sollten Grillen und Produkte aus Grillen im Handel deutlich gekennzeichnet werden. Es ist wichtig zu wissen, dass wissenschaftliche Ergebnisse, die für eine bestimmte Insektenart gelten, nicht automatisch auf verwandte Arten übertragbar sind. Deshalb sollte für jede kommerziell gezüchtete Insektenart eine eigene Risikobewertung durchgeführt werden.

    Da immer mehr Produkte mit essbaren Insekten auf den Markt kommen, ist es wahrscheinlich, dass neue Allergene entdeckt werden, die mit Grillen und anderen essbaren Insekten in Verbindung stehen. Zudem könnte die Entwicklung neuer Verarbeitungstechniken für Insektenprodukte auch neue chemische oder mikrobielle Gefahren mit sich bringen.

    Neue Erkenntnisse zu diesem Thema liefert die aktuelle Analyse „The Allergen Profile of Two Edible Insect Species Acheta domesticus and Hermetia illucens“. Die Studie hat mehrere Allergene in Insekten identifiziert, die bei Allergikern Probleme verursachen könnten, insbesondere bei denen, die bereits auf Krebstiere allergisch sind. Es wurden auch zusätzliche Proteine entdeckt, die allergische Reaktionen auslösen könnten, jedoch noch nicht mit bekannten Krebstierallergenen verglichen wurden. Diese neuen Allergene müssen weiter untersucht werden, um zu verstehen, wie sie den Körper beeinflussen und wie man sie besser diagnostizieren und behandeln kann.

    Die Wissenschaftler haben außerdem gezeigt, dass Standard-Allergen-Testkits für Krebstiere nicht verwendet werden können, um Insektenprodukte auf Allergene zu testen. Deshalb sollte die Kennzeichnung von Lebensmitteln mit Insekten in Zukunft sicherstellen, dass diese speziellen Allergene berücksichtigt werden, um unerwünschte allergische Reaktionen zu vermeiden. Das ist besonders wichtig, weil in einigen Regionen der Welt bis zu 4 % der Menschen auf Krebstiere allergisch sind.

    Kritiker sehen in der Entscheidung der EU-Kommission den Versuch, trotz möglicher gesundheitlicher Risiken, den Konsum von Acheta domesticus als sicher darzustellen, um das Ziel einer vielfältigeren Ernährung und die Einführung nachhaltiger Proteinquellen zu fördern. Befürworter hingegen argumentieren, dass die potenziellen Vorteile, wie der Zugang zu nachhaltigen Proteinquellen, die Risiken überwiegen könnten. Dies bedeute jedoch nicht, dass die Risiken ignoriert werden; vielmehr werden sie als vertretbar erachtet, sofern die vorgeschriebenen Sicherheitsmaßnahmen eingehalten werden. In wieweit der Spruch „Der Zweck heiligt die Mittel“ in diesem Fall zutreffend ist, hängt davon ab, ob man von den vertretbaren Risiken betroffen ist oder nicht.

    Die gesundheitlichen Risiken für die Weltbevölkerung stehen ganz oben auf der Agenda der Weltgesundheitsorganisation (WHO). Die Videobotschaft des WHO-Generaldirektors „Our food systems are harming the health of people and the planet“ veranschaulicht die Sichtweise der WHO in Bezug auf die Nahrungsmittelsysteme:

    b) Untrennbare Verbindung der Gesundheit von Menschen, Tieren und Umwelt

    Nach Ansicht der WHO steigt durch das Bevölkerungswachstum und die zunehmende Nähe von Menschen zu Wild- und Haustieren das Risiko, dass Krankheiten von Tieren auf Menschen übertragen werden. Laut der Weltorganisation für Tiergesundheit (OIE) sind etwa 60 % der bekannten Infektionskrankheiten des Menschen zoonotischen Ursprungs, ebenso wie 75 % der Erreger neu auftretender Krankheiten. Die Ernährungs- und Landwirtschaftsorganisation der Vereinten Nationen (FAO) weist zudem darauf hin, dass die intensive Viehhaltung erheblich zur Umweltbelastung beiträgt. Sie verursacht mehr Treibhausgasemissionen als der weltweite Verkehr und verschärft Probleme wie Abholzung, hohen Wasserverbrauch und Bodenkontamination.

    Zusätzlich erhöhen der übermäßige Einsatz von Antibiotika und das Auftreten von Zoonosen die Gesundheitsrisiken für den Menschen. Die Abholzung entzieht Tieren ihren natürlichen Lebensraum und drängt sie näher an menschliche Siedlungen, was das Risiko für die Übertragung von Zoonosen weiter verstärkt. Darüber hinaus fördern globale Reisen und der internationale Handel die rasche Verbreitung von Krankheiten über Landesgrenzen hinweg, sodass ein Ausbruch in einem einzelnen Land schnell weltweite Auswirkungen haben kann.

    Diese untrennbare Verbindung der Gesundheit von Menschen, Tieren und Umwelt kristallisiert sich in dem WHO One-Health-Ansatz, der die Art und Weise verändert, wie Regierungen, Organisationen und Institutionen Gesundheitsfragen angehen und darauf reagieren.

    One-Health

    Eine Umstellung der Lebensmittelsysteme auf eine gesündere, abwechslungsreichere und stärker pflanzlich geprägte Ernährung ist daher unerlässlich“, lautet die Devise der WHO. Die Bill- und Melinda-Gates-Stiftung zählt zu den größten Geldgebern der WHO überhaupt.

    c) Synthetische Lebensmittel

    Wie sich Bill Gates die Umstellung der Lebensmittelsysteme konkret vorstellt, beschreibt er auf seinem Internetblog GatesNotes wie folgt:

    Unser Plan kann nicht darin bestehen, einfach zu hoffen, dass die Menschen auf Lebensmittel verzichten, nach denen sie sich sehnen. Schließlich ist der Mensch nicht ohne Grund darauf programmiert, tierische Fette zu essen, denn sie sind der nährstoffreichste und kalorienreichste Makronährstoff – genauso wie wir uns nach Zucker sehnen, um einen schnellen Energiekick zu bekommen. Wir brauchen neue Wege, um die gleichen Fettmoleküle wie in tierischen Produkten zu erzeugen, aber ohne Treibhausgasemissionen, Tierleid oder gefährliche Chemikalien. Und sie müssen für jeden erschwinglich sein.

    Wie die neuen Wege konkret aussehen können, wird vom Gates unterstützten Start-Up Savor zusammengefasst.

    Können wir die fossilen Brennstoffe nicht einfach essen?“

    Der Gedanke, dass die Umstellung der Menschen vom Verzehr von Tieren und Pflanzen auf den Verzehr fossiler Brennstoffe die Urbarmachung all dieser Gebiete ermöglichen könnte – und die daraus resultierende Bindung großer Mengen an atmosphärischem Kohlenstoff– war mächtig.

    Die Fette, die wir bei Savor herstellen, können aus fossilen Brennstoffen wie Erdgas oder aus abgeschiedenem CO2 und grünem Wasserstoff hergestellt werden. Wir haben sowohl technisch – bei der Herstellung hochreiner und leistungsstarker Fette – als auch kommerziell – zu lernen, wie wir unsere Produkte und Technologien so mit der Welt teilen können, dass unvermeidliche Fragen und Bedenken in Bezug auf Sicherheit und Gesundheit beantwortet werden.

    Das folgende Werbevideo von Savor veranschaulicht, wohin die Reise führen wird:

    Der Prozess von Savor ermöglicht es, Fette und andere Lebensmittelbestandteile ohne traditionelle landwirtschaftliche Produktion herzustellen. Dabei wird CO₂ aus der Luft und Wasserstoff aus Wasser verwendet, die in einer thermochemischen Reaktion zu Fetten umgewandelt werden. Dieser Ansatz stellt ein Beispiel für die nächste Generation von ‚synthetischen‘ Lebensmitteln dar, die auf innovativen Verfahren basieren.

    Eine umfassende Übersicht über das breite Spektrum neuartiger synthetischer Lebensmittel sowie die damit verbundenen potenziellen Risikofaktoren findet man hier.

    d) Neue Lebensmittel aus dem 3D-Drucker

    Savor ist nicht allein in seinen Bestrebungen, den Planeten zu retten. Das österreichische Start-up Revo Foods hat in Wien die „Taste Factory“ eröffnet, eine Produktionsstätte für additive Lebensmittelproduktion, die auf einem speziellen 3D-Druckverfahren basiert. Mit einer beeindruckenden Kapazität von bis zu 60 Tonnen pro Monat ist sie die größte Anlage ihrer Art weltweit. „Wir überschreiten die Grenzen der Lebensmitteltechnologie“ lautet die Devise des Unternehmens:

    Der Vergleich von 3D-gedruckten Lebensmitteln mit dem Nahrungs-Replikator aus dem Star Trek-Universum liegt zwar nahe, ist jedoch technologisch noch ein gutes Stück entfernt. In der Ausgabe der SWR-Wissen-Sendung „Wie funktioniert die Nahrungs-Replikation bei ‚Raumschiff Enterprise‘?“ vom 23.02.2024 äußert sich Dr. Hubert Zitt mit einer Mischung aus Begeisterung und Zurückhaltung:

    Aber wir sind bei der Herstellung von Nahrung mit 3-D-Druckern auf einem Weg. Nun will ich das nicht direkt miteinander vergleichen. Aber ich glaube schon, dass es in Zukunft immer mehr kommen wird, dass wir Nahrung auf diese Art herstellen werden. Wobei ich mir das ehrlich gesagt selbst nicht wünsche. Denn ich liebe ein gutes, saftiges Steak, wenn man das heute noch sagen darf, und möchte mich nicht mit dem Gedanken anfreunden, dass wir Nahrung künstlich bei irgendwelchen Chemiefirmen herstellen.

    Ob er seine Vorlieben in Zukunft noch öffentlich äußern darf, bleibt abzuwarten.

    Eine aktuelle Übersicht der Top 50 aus 300 jungen Unternehmen mit Hauptsitz in Deutschland, die die Nahrungsmittelindustrie oder die globale Ernährung positiv verändern, liefert das Handelsblatt. Weitere Beispiele findet man hier.

    Was heute noch für viele wie eine bloße Idee erscheint, stellt lediglich den Beginn eines umfassenden Wandels in der Nachfrage der breiten Bevölkerung dar. Dieser Transformationsprozess wird sich jedoch allmählich entwickeln und nicht abrupt, sondern schrittweise in den kommenden Jahren Gestalt annehmen.

    Im Rahmen von öffentlich-privaten Partnerschaften (PPPs) werden Regierungen nach und nach politische Rahmenbedingungen schaffen, die solche Innovationen fördern und gleichzeitig nachhaltige Praktiken unterstützen, etwa durch Subventionen, Steueranreize oder regulatorische Anpassungen.

    Die wachsende Nachfrage nach alternativen Proteinen und „neuartigen Lebensmitteln“ wird voraussichtlich negative Folgen für den Lebensunterhalt von Viehzüchtern sowie für die Wirtschaft von Ländern haben, die stark von der Viehzucht abhängig sind. Die breite Einführung solcher Technologien könnte traditionelle landwirtschaftliche Strukturen zusätzlich destabilisieren. Besonders kleinere Betriebe dürften unter dem zunehmenden Druck durch Industrialisierung und technologische Umbrüche leiden, was erhebliche soziale und wirtschaftliche Herausforderungen mit sich bringen könnte.

    Der Anbau von Pflanzen für alternative Proteine, wie Soja oder Erbsen, könnte zur Ausweitung von Monokulturen führen, die die Biodiversität reduzieren und das Risiko von Bodendegradation, Schädlingsbefall und Krankheiten erhöhen. Obwohl alternative Proteine im Allgemeinen als umweltfreundlicher angesehen werden, kann ihre Produktion dennoch negative Umweltauswirkungen haben, wenn sie nicht nachhaltig betrieben wird. Zum Beispiel könnten der intensive Einsatz von Düngemitteln und Pestiziden beim Anbau von Proteinpflanzen oder der hohe Energieverbrauch bei der Herstellung von Laborfleisch negative Folgen haben.

    Da alternative Proteine und synthetische Nahrungsmittel noch relativ neu sind, gibt es bislang nicht ausreichend Langzeitstudien, um ihre gesundheitlichen Auswirkungen über einen längeren Zeitraum vollständig zu verstehen. Obwohl chemisch synthetisierte Fette ähnlich wie herkömmliche Fette strukturiert sind, könnten geringe Unterschiede oder Verunreinigungen im Herstellungsprozess gesundheitliche Folgen haben, die erst später erkannt werden. Viele alternative Proteine, besonders in Fleischersatzprodukten, sind stark verarbeitet und enthalten oft Zusatzstoffe, Stabilisatoren, Salz und Fett. Diese Inhaltsstoffe können langfristig negative Auswirkungen auf die Gesundheit haben, insbesondere wenn sie in großen Mengen konsumiert werden. Zudem fehlen diesen Proteinen häufig wichtige Nährstoffe, die in tierischen Produkten natürlicherweise vorkommen, wie Vitamin B12, Eisen und Omega-3-Fettsäuren, was ohne geeignete Ergänzung zu Mängeln führen kann. Darüber hinaus bergen bestimmte alternative Proteine ein Allergierisiko. Soja oder Insektenproteine können bei empfindlichen Menschen allergische Reaktionen auslösen. Auch neuartige Proteine aus Algen oder Pilzen könnten unerwartete Allergien hervorrufen.

    Potentielle Risikofaktoren und die verschiedenen Gefahren neuartiger synthetischer Lebensmittel. FIGURE 2

    Dieser Wandel der Nachfrage erfordert eine sorgfältige Planung, um negative Auswirkungen auf Landwirtschaft, ländliche Gemeinschaften und die menschliche Gesundheit zu minimieren. Entscheidend wird sein, ob die verantwortlichen Akteure diese Risiken ernsthaft adressieren oder sie als unvermeidbar hinnehmen, um Fortschritte zu beschleunigen. Die Balance zwischen Innovation und dem Schutz bestehender Strukturen wird letztlich bestimmen, wie erfolgreich dieser Transformationsprozess verläuft.


    2.2. Digitalisierung entlang der gesamten Wertschöpfungskette

    Die Autoren des WEF-Berichts zeichnen ein Bild einer zunehmend vernetzten Welt, in der die Forderung nach effizienteren, transparenteren und rückverfolgbaren Lieferketten wächst. Verbraucher möchten heute nicht nur wissen, woher ihre Lebensmittel stammen, sondern auch sicher sein, dass diese auf ethische und nachhaltige Weise beschafft wurden. Hier kommen verschiedene digitale Technologieblöcke ins Spiel, die das Potenzial haben, die Art und Weise, wie wir Lebensmittel produzieren, transportieren und konsumieren, grundlegend zu verändern.

    Innovation mit Sinn und Zweck (Bild 3): Kombinationen von 4IR-Technologien können Innovationen zur Lösung von Herausforderungen in Lebensmittelsystemen ermöglichen

    Landwirtschaft und IoT

    In der Vision des Weltwirtschaftsforums (WEF) vernetzt das Internet der Dinge (IoT) Sensoren und Aktoren, die in Echtzeit Daten über Bodenqualität, Pflanzenzustand und Umweltbedingungen erfassen und austauschen. Diese technologische Entwicklung revolutioniert die Landwirtschaft. Die erfassten Daten ermöglichen präzise Entscheidungen, die Ressourcen wie Wasser, Düngemittel und Pestizide effizienter einsetzen, Erträge steigern und gleichzeitig die Umweltbelastung minimieren. Technologien wie intelligente Bewässerungssysteme, GPS-gesteuerte Traktoren, Drohnen und fortschrittliche Sensortechnik machen die Landwirtschaft nicht nur effizienter, sondern auch nachhaltiger, betonen die Verfasser der Studie.

    Im Bereich der Tierhaltung sollen digitale Technologien das Tierwohl und die Gesundheit durch kontinuierliches Monitoring verbessern. Blockchain-Technologien können zudem eine transparente Rückverfolgbarkeit entlang der gesamten Produktionskette gewährleisten. Darüber hinaus unterstützen Satellitensysteme die Überwachung ökologisch wertvoller Flächen sowie die Einhaltung von Biodiversitätszielen.

    Lieferkettenmanagement

    In der Lebensmittellieferkette ermöglicht IoT eine präzise Überwachung und Nachverfolgung jedes Schritts – von der Ernte bis zur Auslieferung. Faktoren wie Temperatur und Feuchtigkeit während Transport und Lagerung können gezielt optimiert werden, um die Frische und Qualität der Produkte zu sichern. So lassen sich Transportwege effizient steuern, Kühlketten kontrolliert managen und Verluste durch Verderb reduzieren. Automatisierte Systeme helfen, Arbeitskosten zu senken und Ressourcen besser zu nutzen, während Echtzeitdaten die Planung verbessern und Angebot und Nachfrage besser koordinieren. Engpässe lassen sich schneller erkennen, und präzisere Prognosen ermöglichen eine effizientere Ressourcennutzung.

    Wettbewerbsvorteil und Zukunftsperspektiven

    Investitionen in digitale Technologien steigern die Produktivität, reduzieren Abfälle und senken Kosten. Diese Entwicklungen fördern Nachhaltigkeit, Effizienz und Transparenz und sichern zugleich die Wettbewerbsfähigkeit der Landwirte. Durch den Einsatz digitaler Lösungen wird nicht nur die aktuelle Leistung verbessert, sondern auch die langfristige Zukunft der Landwirtschaft gesichert – ein zentraler Gedanke hinter dieser strategischen Ausrichtung.

    Eine echte Win-Win-Situation für Umwelt, Verbraucher und Unternehmen – soweit die Theorie.

    Laut dem Data Bridge Market Research Bericht wird der globale Markt für IoT in der Landwirtschaft bis 2031 ein Volumen von 32,71 Milliarden US-Dollar erreichen, bei einer jährlichen Wachstumsrate von 10,1 %.

    Globales Internet der Dinge (IoT) im Agrarmarkt

    Technologischer Fortschritt und steigender Wettbewerbsdruck beschleunigen die Transformation der Landwirtschaft, verstärkt durch staatliche Förderungen und regulatorische Vorgaben. Ein zentraler Trend ist der zunehmende gesetzliche Druck, digitale Technologien wie das Internet der Dinge (IoT) und Präzisionslandwirtschaft einzusetzen. Immer mehr Regierungen schaffen Rahmenbedingungen, die diese Innovationen fördern, um hohe Standards in den Bereichen Umweltschutz, Tierwohl und Lebensmittelsicherheit zu gewährleisten.

    Politischer Rahmen: GAP 2023-2027

    Die GAP 2023-2027 (Gemeinsame Agrarpolitik) stellt die jüngste Reform der europäischen Agrarpolitik dar und legt den Fokus auf nachhaltige, umweltfreundliche und soziale Standards. Diese Politik, gemeinsam entwickelt von der EU-Kommission, dem Parlament und den Mitgliedstaaten, hat das Ziel, die europäischen Landwirtschaftssysteme zu modernisieren und gleichzeitig die Wettbewerbsfähigkeit und Stabilität der landwirtschaftlichen Betriebe langfristig zu sichern.

    GAP 2023–2027: Die zehn Hauptziele

    Die GAP 2023-2027 bringt wichtige Neuerungen mit sich. Ein zentraler Bestandteil sind die sogenannten Ökoregelungen (Eco-Schemes), durch die rund 25 % der Direktzahlungen an Landwirte an umweltfreundliche Maßnahmen geknüpft werden. Diese beinhalten unter anderem Bodenschutzmaßnahmen, die Förderung der Biodiversität und eine nachhaltige Wasserbewirtschaftung.

    Ein weiterer wichtiger Aspekt ist die Konditionalität, die von allen Landwirten die Einhaltung bestimmter Umwelt- und Klimastandards fordert, um förderfähig zu bleiben. Dazu zählen der Erhalt von Dauergrünland und der Schutz von Feuchtgebieten, um wertvolle Ökosysteme zu schützen. Neu eingeführt wurde auch die soziale Konditionalität, die auf die Wahrung von Arbeitsrechten und fairen Arbeitsbedingungen in der Landwirtschaft abzielt und somit einen weiteren Schritt in Richtung sozialer Nachhaltigkeit darstellt.

    Diese Reform stellt einen bedeutenden Wandel in der finanziellen Unterstützung des Agrarsektors dar, indem sie die bisherigen pauschalen Direktzahlungen zugunsten umwelt- und sozialbezogener Förderkriterien umgestaltet hat. Während Landwirte zuvor weitgehend pauschale Direktzahlungen erhielten, wird nun ein erheblicher Teil dieser finanziellen Unterstützung an die Teilnahme an umweltfreundliche Maßnahmen (Eco-Schemes) und die Einhaltung bestimmter Standards (Konditionalität) geknüpft.

    Die GAP 2023-2027 setzt klare Anforderungen an Umweltstandards, Nachhaltigkeit und Effizienz, die den Einsatz von IoT und anderen digitalen Systemen nahezu unverzichtbar machen. Die automatische Erfassung und Berichterstattung relevanter Daten vereinfacht die Einhaltung von GAP-Vorgaben und reduziert den bürokratischen Aufwand erheblich.

    Experimentierfelder

    Der praktische Einsatz verschiedener digitaler Techniken wird derzeit auf sogenannten Experimentierfeldern in landwirtschaftlichen Betrieben in Deutschland untersucht und demonstriert.

    Die Experimentierfelder im Überblick [Bundesministerium für Ernährung und Landwirtschaft (BMEL)]

    Weitere Informationen zu diesem Thema bietet das Werbevideo „Klima, Wetter, Ernte und Ertrag: Was leisten digitale Experimentierfelder in der Landwirtschaft?“ des Bundesministeriums für Ernährung und Landwirtschaft (BMEL):

    Zusammenfassend lässt sich festhalten: Die GAP 2023-2027 verfolgt ambitionierte Umwelt- und Nachhaltigkeitsziele, die durch digitale Systeme effizient umgesetzt werden können. Diese digitale Transformation erweist sich als entscheidender Faktor für die Zukunftsfähigkeit und Wettbewerbsfähigkeit des Agrarsektors. Daher kann die GAP 2023-2027 als politisches Instrument zur Umsetzung der Empfehlungen aus dem WEF-Bericht „Innovation with a Purpose: The role of technology innovation in accelerating food systems transformation“ betrachtet werden.

    Der Analyse-Bericht „Digital Agriculture Market Size & Share Analysis – Growth Trends & Forecasts (2024 – 2029)“ fasst die globale Entwicklung wie folgt zusammen:

    Das zunehmende Bewusstsein für die Vorteile der digitalen Landwirtschaft bei der Optimierung der landwirtschaftlichen Produktion hat zu einem großen Boom auf dem Agrarmarkt geführt. Mit dem wachsenden Nahrungsmittelbedarf aufgrund der zunehmenden Bevölkerung ist die Einführung digitaler Landwirtschaftstools unvermeidlich.

    Es wird erwartet, dass die Vereinigten Staaten einen bedeutenden Anteil in die Förderung des Ökosystems für zukünftige Lebensmittel investieren werden.

    Die britische Regierung hat in ihrer Industriestrategie künstliche Intelligenz (KI) eingesetzt, um die Produktivität der Pflanzen zu steigern. Das Land hat sich verpflichtet, die Ausgaben für Forschung und Entwicklung bis 2027 auf 2,4 % des BIP zu erhöhen. Darüber hinaus wurde in Cambridge ein neues 500-Millionen-Euro-Projekt angekündigt, das Großbritanniens Position als Innovator in der wachsenden Agrartechnologiebranche festigen soll. Das Projekt wird bis zu 4.000 Mitarbeiter beherbergen und Agrar- und Technologieunternehmen zusammenbringen, um ein Zentrum für globale landwirtschaftliche Innovation und Produktivität zu schaffen.

    Die Einführung von Technologien in Europa und Nordamerika hat die Produktivität der Kulturen erhöht. So entwickelte Idele (Institut d’Elevage), Frankreich, im Juni 2022 eine datenbasierte Online-Anwendung namens CAP’2ER, in die dreißig Sätze von Aktivitätsdaten eingegeben werden, um agrarökologische Indikatoren zu ermitteln. Diese Anwendung analysiert fünf Datenbanksätze wie Viehbestand, Dungmanagement, Felder, Futtermittel und Energieverbrauch, indem sie den jährlichen Gesamtkraftstoffverbrauch, die Produktivität der Tiere (Fruchtbarkeit, Wachstum und Vermarktungsalter), die gekauften Futtermittel, die Dungmengen und das Dungmanagement, die Anzahl der Bäume und Dickichte, Sträucher, Hecken, Grasstreifen, Steinhaufen und Steinmauern sowie die Gewässer auf dem Hof analysiert.

    Der chinesische Agrarsektor hat in den letzten Jahren eine bahnbrechende Revolution im Hinblick auf die Einführung intelligenter Anbaumethoden erlebt. Im Jahr 2020 startete die chinesische Zentralregierung ein Pilotprojekt mit der Bezeichnung „digitales Dorf“, das die Nutzung der Informationstechnologie zur Ankurbelung des Binnenkonsums fördert und zu einem Boom in der mobilen, internetgestützten Wirtschaft führt.

    Auch der steigende Bedarf an Digitalisierung in der indischen Landwirtschaft ist bekannt, und es werden Anstrengungen unternommen, die Wertschöpfungskette zu digitalisieren. Im September 2021 gab der Minister für Landwirtschaft und Bauernwohlfahrt der Union den Startschuss für die Mission „Digitale Landwirtschaft 2021-2025“. Die Mission „Digitale Landwirtschaft 2021-2025“ zielt darauf ab, Projekte zu unterstützen und zu beschleunigen, die auf neuen Technologien wie KI, Blockchain, Fernerkundung und GIS-Technologie sowie auf dem Einsatz von Drohnen und Robotern basieren.

    Digital Agriculture Market: Growth Rate By Region (2022-2027) [Mordor Intelligence]

    Digitale Landwirtschaftstechnologien bieten vor allem großen Betrieben Vorteile, da diese die hohen Investitionskosten dank Skaleneffekten besser tragen und über die notwendigen Ressourcen zur Verwaltung der umfangreichen Datenmengen verfügen. Solche Unternehmen können die Kosten für Technologien wie Sensoren, Drohnen und spezielle Software besser auf ihre Produktion umlegen und dadurch die Rentabilität der Investitionen steigern. Kleinere Betriebe hingegen stehen oft vor der Herausforderung, dass sich die hohen Technologiekosten bei begrenztem Produktionsvolumen kaum rechtfertigen lassen. Dies führt zu einer digitalen Kluft, die kleine und mittlere Betriebe im Vergleich zu größeren Wettbewerbern strukturell benachteiligt.

    Darüber hinaus profitieren Großbetriebe oft von besserem Zugang zu Kapital und staatlichen Förderungen für die Digitalisierung, während kleine Betriebe hierauf nur eingeschränkt Zugriff haben. Die Abhängigkeit kleinerer Betriebe von externen Technologieanbietern stellt ein weiteres Problem dar, da diese keine eigenen Ressourcen für die Verwaltung und Wartung digitaler Systeme besitzen und daher vertraglich an wenige Anbieter gebunden sind. Diese Abhängigkeit schränkt ihre Flexibilität und Eigenständigkeit weiter ein.

    Mit den Effizienzsteigerungen großer Betriebe durch digitale Lösungen steigt zudem der Preisdruck auf dem Markt. Kleinere Betriebe, die diese Vorteile nicht erzielen können, riskieren, aufgrund ihrer höheren Produktionskosten aus dem Markt verdrängt zu werden, was zu einer weiteren Konzentration im Agrarsektor führt. Auch in Nischenmärkten wie Bio- und Regionalprodukten erhöht sich die Konkurrenz durch die Digitalisierung, da Großbetriebe dank digitaler Systeme zunehmend Premiumprodukte anbieten können, die für kleinere Betriebe bisher ein Alleinstellungsmerkmal waren.

    Insgesamt begünstigt die digitale Transformation im Agrarsektor vor allem kapitalkräftige Großbetriebe, während kleinere und mittlere Betriebe mit existenziellen Herausforderungen konfrontiert sind. Um die Überlebenschancen dieser Betriebe zu sichern, wären gezielte Fördermaßnahmen und ein breiterer Zugang zu digitaler Technologie notwendig, um ihre Wettbewerbsfähigkeit und ihre besonderen Stärken zu erhalten und auszubauen.

    Die Digitalisierung im Agrarsektor bringt für Verbraucher sowohl Vorteile als auch Nachteile. Durch die Skaleneffekte großer Betriebe könnten die Lebensmittelpreise sinken, was allerdings das Überleben kleiner und mittelgroßer Betriebe gefährden und die Vielfalt regionaler und traditioneller Produkte einschränken könnte. Während größere Anbieter zunehmend auch Premium- und Bio-Produkte in ihr Sortiment aufnehmen, könnte die Verdrängung kleinerer Betriebe langfristig die Auswahl und Preisstabilität am Markt negativ beeinflussen. Die digitale Transformation unterstützt teilweise Nachhaltigkeitsziele, jedoch bleibt offen, ob sie den Verbraucheranforderungen an Umweltfreundlichkeit gerecht wird, insbesondere wenn wirtschaftliche Zwänge zu einer Intensivierung der Produktion führen. Letztlich könnte die digitale Kluft zwischen großen und kleinen Betrieben zu eingeschränkter Vielfalt und weniger Wettbewerb führen, wodurch das Lebensmittelangebot für die Verbraucher weniger dynamisch und abwechslungsreich ausfallen könnte.


    2.3. Follow the Science – Biotechnologien der nächsten Generation und Genomik

    Der Drang nach Effizienzsteigerung und Optimierung macht vor der Lebensmittelproduktion nicht halt. Der WEF-Bericht legt dabei besonderes Augenmerk auf die nächste Generation von Biotechnologie und Genomforschung. Was ist damit gemeint?

    Innovation mit Sinn und Zweck (Bild 3): Kombinationen von 4IR-Technologien können Innovationen zur Lösung von Herausforderungen in Lebensmittelsystemen ermöglichen

    Historisch gesehen gibt es drei Hauptmethoden zur Verbesserung von Saatgut: offene Bestäubung, Hybridisierung und genetische Modifikation.

    I – Offene Bestäubung

    Die offene Bestäubung gilt als eine der natürlichsten und ältesten Zuchtmethoden. Sie erfolgt ohne menschliches Eingreifen, indem Pflanzen durch natürliche Prozesse wie Wind, Insekten oder Tiere bestäubt werden. Diese Methode fördert eine breite genetische Vielfalt innerhalb einer Pflanzenpopulation, da Pollen von verschiedenen Individuen kombiniert werden, was zu einer natürlichen Selektion führt. Sie ist seit jeher in vielen ökologischen und traditionellen Landwirtschaftssystemen von Bedeutung, in denen genetische Vielfalt und die Anpassung an die Umwelt eine wichtige Rolle spielen. Allerdings wird sie oft als weniger effizient angesehen, wenn es darum geht, gezielt spezifische Eigenschaften in Pflanzen zu fördern – wie es bei der Hybridisierung oder genetischen Modifikation der Fall ist. Aus diesem Grund hat die offene Bestäubung ihren Platz in der modernen Landwirtschaft, insbesondere in großen Agrarbetrieben, verloren, da sie im Vergleich zu gezielteren Zuchtmethoden weniger kontrollierbar ist.

    II – Hybridisierung

    Die Hybridisierung ist ein traditionelles Zuchtverfahren, bei dem zwei verschiedene Pflanzenarten oder -sorten gekreuzt werden, um Nachkommen mit bestimmten Eigenschaften wie Krankheitsresistenz, höherem Ertrag oder besserem Geschmack zu erhalten. Dieser Prozess erfolgt entweder durch natürliche oder kontrollierte Bestäubung, wobei die genetische Information beider Elternpflanzen kombiniert wird. Ein großer Vorteil der Hybridisierung ist, dass sie gezielt und kontrolliert erfolgt, sodass Züchter genauere Vorhersagen über die Eigenschaften der Nachkommen treffen können. Aufgrund ihrer langen Geschichte und der umfangreichen Forschung gilt die Methode als sicher und zuverlässig.

    Die Hybridzucht hat allerdings einige Nachteile, die berücksichtigt werden müssen. Ein Problem ist, dass die Nachkommen häufig instabil sind. Um die gewünschten Eigenschaften zu bewahren, müssen Züchter regelmäßig neue Kreuzungen vornehmen. Der sogenannte Heterosis-Effekt führt zwar dazu, dass die ersten Generationen (F1) besonders robuste Pflanzen mit höheren Erträgen hervorbringen, aber dieser Vorteil lässt in den folgenden Generationen nach, da die Hybriden nicht stabil bleiben. Landwirte sind dadurch gezwungen, jedes Jahr neues Saatgut zu kaufen, was die Kosten erhöht und ihre Abhängigkeit von Saatgutunternehmen verstärkt.

    Ein weiteres Problem ist der Verlust genetischer Vielfalt. Durch die ständige Kreuzung nur weniger Sorten werden andere, potenziell widerstandsfähige Genpools weniger beachtet, was die Pflanzen anfälliger für Schädlinge, Krankheiten und Veränderungen in der Umwelt macht. Das verringert ihre Anpassungsfähigkeit an neue Herausforderungen.

    Die Entwicklung von Hybridsaatgut ist kapitalintensiv und erfordert hohe Investitionen in Forschung und Züchtung, was die Produktionskosten steigen lässt. Besonders für kleinere Landwirte kann dies problematisch sein, da sie sich die teuren Hybridsaatgüter möglicherweise nicht leisten können. Hinzu kommt, dass viele Hybridsamen nicht für die erneute Vermehrung geeignet sind, was bedeutet, dass Landwirte Jahr für Jahr neues Saatgut kaufen müssen.

    Die ökologischen Auswirkungen der Hybridzucht sind ebenfalls ein Thema. Der verstärkte Einsatz von Hybridpflanzen könnte die Vielfalt einheimischer Sorten verringern und das Risiko für die Biodiversität erhöhen. Zudem kann der hohe Einsatz von Düngemitteln und Pestiziden, der oft mit der Hybridzucht verbunden ist, negative Auswirkungen auf Bestäuber wie Bienen haben.

    Kritiker der Hybridzucht werfen vor, dass der Fokus zu stark auf wirtschaftlicher Effizienz liegt, während Nachhaltigkeit und ökologische Verträglichkeit oft zu kurz kommen. Ertrag und Widerstandsfähigkeit werden oft stärker gewichtet als Geschmack, Nährstoffgehalt und Vielfalt.

    Obwohl die Hybridzucht in der Landwirtschaft Fortschritte ermöglicht hat, bringt sie auch Herausforderungen mit sich, die über wirtschaftliche Aspekte hinausgehen und ökologische sowie soziale Dimensionen betreffen.

    Auf der Suche nach kostengünstigeren und schnelleren Methoden zur Züchtung von Nutzpflanzen mit vorteilhaften Eigenschaften führt kein Weg an der genetischen Modifikation vorbei.

    III – Genetische Modifikation

    Hierbei wird zwischen traditionellen und modernen Techniken unterschieden.

    Traditionelle genetische Modifikation: Mutationszüchtung

    Die Mutationszüchtung, auch Mutagenese genannt, ist ein traditionelles Zuchtverfahren, bei dem Mutationen im Erbgut von Pflanzen durch den Einsatz von mutagenen chemischen Stoffen oder ionisierenden Strahlen erzeugt werden. Dabei werden durch chemische Substanzen oder Strahlen wie Gamma- oder Neutronenstrahlen zufällige Mutationen ausgelöst. Im Anschluss werden die so entstandenen Mutanten auf nützliche Gene oder Eigenschaften untersucht, die dann in bestehende Sorten eingekreuzt werden.

    Zwischen 1965 und 1990 wurde die Mutagenese, insbesondere durch atomare Strahlung, systematisch in der Pflanzenzüchtung eingesetzt, um neue Eigenschaften zu erzielen, die mit klassischen Züchtungsmethoden nicht möglich gewesen wären. Die chemisch induzierte Mutagenese wird auch heute noch in der Pflanzenzüchtung verwendet. Laut der Internationalen Atomenergiebehörde wurden bis 2017 mehr als 3200 neue Pflanzensorten entwickelt, die durch Mutagenese hervorgebracht wurden.

    Mutationszüchtung: Zufälligkeit als Methode

    In der EU werden Pflanzen, die durch Mutagenese – also durch den Einsatz von Strahlung oder Chemikalien zur Auslösung von Mutationen – verändert wurden, rechtlich als „Gentechnik“ eingestuft. Allerdings sind sie von den meisten Vorschriften für Gentechnikprodukte ausgenommen. Wie kam es dazu?

    Bis 2018 gab es keine rechtlichen Streitigkeiten darüber, wie diese Pflanzen rechtlich einzustufen sind. Doch im Juli 2018 entschied der Europäische Gerichtshof (EuGH), dass auch Pflanzen, die mit mutagenen Methoden gezüchtet wurden, als „genetisch veränderte Organismen“ (GVO) gelten. Der Grund: Bei diesen Pflanzen wurde eine Veränderung am Erbgut vorgenommen, die so in der Natur nicht vorkommt. Daher fallen sie unter das Gentechnik-Gesetz, sind jedoch von den üblichen Regelungen für gentechnisch veränderte Pflanzen und Tiere befreit. Das bedeutet, sie unterliegen nicht den strengen Auflagen für Anbau, Zulassung, Kennzeichnung und Sicherheitsprüfungen vor der Markteinführung. Pflanzen aus der Mutationszüchtung werden wie solche aus der klassischen Züchtung behandelt. Abgesehen vom Sortenrecht gibt es keine speziellen Vorschriften. Erzeugnisse aus Pflanzen oder Tieren, die mit Hilfe klassischer Mutagenese gezüchtet wurden, dürfen für Lebensmittel „ohne Gentechnik“ weiterverwendet werden, obwohl diese rechtlich als Gentechnik gelten. Auch in der Bio-Landwirtschaft sind Mutagenese-Pflanzen ohne Einschränkungen erlaubt.

    Die Richter des EuGH begründeten ihre Entscheidung mit der langen Erfahrung, die es mit der Mutationszüchtung gibt. Sie sind der Ansicht, dass Pflanzen, die durch Mutagenese entstanden sind, ohne weitere Prüfung als sicher angesehen werden können. Eine besondere Kennzeichnung, die den Verbrauchern eine Wahlfreiheit ermöglicht, sei daher nicht nötig. Diese Auffassung wurde im Februar 2023 in einem weiteren Urteil des EuGH bestätigt.

    Obwohl Mutagenese als traditionellere Züchtungsmethode gilt, gibt es immer noch Risiken im Hinblick auf unvorhersehbare Mutationen und die möglichen Auswirkungen auf die Umwelt.

    Die Mutagenese basiert auf zufälligen Mutationen, die nicht nur erwünschte, sondern auch schädliche genetische Veränderungen verursachen können. Diese Mutationen sind oft schwer kontrollierbar, was das Risiko unerwünschter Eigenschaften erhöht. Da die Auswirkungen auf das Erbgut nicht immer vorhersehbar sind, führt dies zu Unsicherheit. Besonders in großen Züchtungsprogrammen ist es schwierig, die entstehenden Pflanzen genau zu überwachen, was die Regulierung erschwert und potenzielle Risiken für Gesundheit und Umwelt verschleiern kann. Zudem könnten sich Pflanzenmerkmale entwickeln, die das ökologische Gleichgewicht stören, wie etwa eine zu hohe Resistenz gegen Umwelteinflüsse. Die Vielzahl ungewollter Veränderungen macht die Mutagenese weniger effizient und teurer, da viele unerwünschte Mutationen verworfen oder durch weitere Züchtungsprozesse entfernt werden müssen.

    Die Mutagenese als Methode der Pflanzenzüchtung bietet vor allem großen Agrarkonzernen Vorteile, da sie über die finanziellen und technologischen Ressourcen verfügen, um die aufwendige Forschung und Entwicklung zu betreiben. Die Züchtung neuer Pflanzenarten erfordert erhebliche Investitionen in Labore, Wissenschaftler und modernste Technologien – Voraussetzungen, die Unternehmen wie Bayer, BASF oder Syngenta erfüllen können. Diese Konzerne haben dadurch die Möglichkeit, die Verfügbarkeit bestimmter Pflanzensorten zu kontrollieren und sich wichtige Marktanteile zu sichern, insbesondere bei der Verbreitung von Monokulturen.

    Kleinere und mittlere landwirtschaftliche Betriebe hingegen stoßen hier an ihre Grenzen. Ohne Zugang zu den notwendigen Ressourcen können sie selbst kaum von der Mutagenese profitieren und sind auf den Kauf lizenzierter Sorten angewiesen. Dies bringt oft hohe Patent- und Lizenzgebühren mit sich, die ihre finanzielle Belastung erhöhen und eine Abhängigkeit von großen Agrarkonzernen fördern. Diese Abhängigkeit kann nicht nur die wirtschaftliche Unabhängigkeit der Landwirte gefährden, sondern auch ihre Wettbewerbsfähigkeit im globalen Markt erheblich einschränken.

    Moderne genetische Modifikation: transgene Methoden und Genome-Editierung

    Moderne Techniken der genetischen Modifikation, wie transgene Methoden und Genome-Editierung, bieten klare Vorteile gegenüber der traditionellen Mutagenese mit Chemikalien oder Strahlung. Der größte Vorteil liegt in ihrer Präzision: Während die klassische Mutagenese zahlreiche zufällige Mutationen im Genom erzeugt, die oft unvorhersehbare Nebenwirkungen haben, ermöglichen die neuen Verfahren gezielte Eingriffe. Diese Präzision macht die Entwicklung neuer Pflanzensorten schneller, kostengünstiger und reduziert gleichzeitig den Einsatz von Pestiziden, da gezielt Resistenzen eingebaut werden können. Zudem erlauben sie, Pflanzen spezifisch auf klimatische Herausforderungen wie Dürre oder salzhaltige Böden anzupassen, was mit Mutagenese kaum erreichbar ist.

    Bei der transgenen Methode wird genetisches Material einer anderen Art in das Genom einer Pflanze eingefügt, wodurch Eigenschaften übertragen werden, die in der Zielpflanze ursprünglich nicht vorhanden sind. Hierzu werden Gene von nicht verwandten Organismen, wie Bakterien oder anderen Pflanzenarten, in das Erbgut der Kulturpflanze eingebaut. Mit dieser Technik lassen sich spezifische Merkmale wie Schädlingsresistenz oder Herbizidresistenz integrieren, die der Pflanze Vorteile verschaffen. Ein bekanntes Beispiel für diese Methode ist der Bt-Mais, der durch das Einfügen eines Gens des Bodenbakteriums Bacillus thuringiensis gegen Schädlinge resistent gemacht wird und somit den Pestizideinsatz verringert.

    Gentechnisch veränderte Organismen (GMO-Pflanzen), die mithilfe transgener Zuchtmethoden entwickelt wurden, sind heute vor allem in Nord- und Südamerika weit verbreitet. In Ländern wie den USA, Brasilien und Argentinien dominieren herbizidresistente Sojabohnen, die häufig für Futtermittel, Lebensmittel und industrielle Zwecke verwendet werden. Auch transgener Mais, der entweder gegen Herbizide resistent ist oder das Bt-Gen zur Schädlingsbekämpfung trägt, ist in diesen Regionen weit verbreitet und schützt die Pflanzen vor Schädlingen wie dem Maiszünsler. In Indien, den USA und China wird GMO-Baumwolle mit dem Bt-Gen angebaut. Zudem findet sich in Kanada und den USA herbizidresistenter GMO-Raps, der vor allem in der Lebensmittelproduktion und Ölherstellung genutzt wird. In den USA und Kanada werden auch herbizidresistente Zuckerrüben zur Zuckerproduktion angebaut. Die hohe Akzeptanz von GMO-Pflanzen in diesen Ländern beruht auf staatlicher Unterstützung und den damit verbundenen wirtschaftlichen Vorteilen. In Europa und anderen Regionen hingegen ist der Einsatz dieser Pflanzen aufgrund strengerer Regulierungen und Bedenken hinsichtlich Umwelt- und Gesundheitsrisiken weitgehend eingeschränkt.

    Die Genome-Editierung, besonders durch das CRISPR-Cas9-Verfahren, unterscheidet sich von transgenen Methoden, da hier keine fremden Gene eingefügt werden. Stattdessen werden gezielt vorhandene Gene der Pflanze verändert, um gewünschte Eigenschaften zu fördern oder unerwünschte zu eliminieren, ohne die genetische Grenze zwischen Arten zu überschreiten. Diese Technik kann beispielsweise für Resistenzen gegen Krankheiten oder Anpassungen an Umweltbedingungen wie Trockenheit genutzt werden. Im Vergleich zur transgenen Methode ist die Genome-Editierung präziser und effizienter. CRISPR-Cas9 erlaubt schnelle und kostengünstige Veränderungen. Durch die gezielte Bearbeitung spezifischer Gene werden unerwünschte Nebenwirkungen minimiert und die Entwicklungszeit neuer Sorten verkürzt.

    Diese Technik „könnte erheblich höhere Erträge sowie ökologische und ernährungsphysiologische Vorteile bieten. Wenn genverändertes Saatgut bis 2030 von 60–100 Millionen Betrieben verwendet würde, könnten 100–400 Millionen Tonnen zusätzliche Ernteerträge erzielt und jährlich 5–20 Millionen Tonnen weniger Produktionsverluste verzeichnet werden. Die Einkommen der Landwirte könnten um 40–100 Milliarden Dollar steigen, und die Ernährung von 20–100 Millionen Menschen mit Mikronährstoffmangel könnte verbessert werden, ist in dem WEF-Bericht zu lesen.

    Wie diese Visionen in die Praxis umgesetzt werden, demonstriert das US-amerikanische Agrarbiowissenschaftsunternehmen Yield10 Bioscience, das auf den Einsatz moderner Techniken der genetischen Modifikation von Nutzpflanzen spezialisiert ist, im folgenden Werbevideo:

    Das Unternehmen erklärt auf einfache Weise, dass Pflanzen heute wie Fabriken betrachtet werden, deren innere Abläufe man gezielt verbessern kann. Ähnlich wie Apps auf einem Smartphone lassen sich bestimmte „genetische Apps“ zur DNA von Pflanzen wie Mais, Reis, Soja oder Raps hinzufügen. Diese Apps beeinflussen den Stoffwechsel und die Eigenschaften der Pflanzen positiv. Der „App-Store“ für diese genetischen Anpassungen ist eine Plattform namens Gene Ranking Artificial Intelligence Network (GRAIN), eine Big-Data-Genentdeckungsplattform, die speziell dafür entwickelt wurde, die DNA der Pflanzen optimal anzupassen.

    In vielen Ländern wie den USA, Kanada, Brasilien, Indien, Russland, Großbritannien und Australien wird die Genome-Editierung bereits nicht mehr als klassische „Gentechnik“ betrachtet und unterliegt daher weniger strengen Vorschriften.

    Anfang dieses Jahres sprach sich das EU-Parlament für eine Lockerung der strengen Regeln für gentechnisch veränderte Lebensmittel aus. Zukünftig sollen zwei Kategorien eingeführt werden: Pflanzen mit bis zu 20 genetischen Veränderungen sollen wie herkömmliche Pflanzen behandelt werden, während für Pflanzen mit mehr Eingriffen weiterhin strengere Vorschriften gelten. Nach der Abstimmung im Parlament beginnen nun die Verhandlungen zwischen den Mitgliedstaaten, dem Europäischen Parlament und der Kommission. Die Diskussion über die neue Gentechnik und ihre Kennzeichnung in der EU ist jedoch noch lange nicht abgeschlossen.

    Der Videobeitrag „Gentechnik in der Landwirtschaft: Hoffnungsträger oder Gefahr?“ der renommierten Max-Planck-Gesellschaft beleuchtet aus wissenschaftlicher Perspektive die wichtigsten und umstrittensten Aspekte der Debatte über den Einsatz von Gentechnik, insbesondere der Genom-Editierung:

    In dem WEF-Bericht ist zu diesem Thema folgendes zu lesen:

    Allerdings birgt das Gen-Editing auch Risiken in sich. Erstens wird die Saatgutinnovation angesichts der Transaktionskosten für kleine landwirtschaftliche Betriebe wahrscheinlich in erster Linie auf die Industrieländer ausgerichtet sein, und die kleinen Betriebe laufen Gefahr, außen vor zu bleiben. Zweitens könnte die Konzentration des geistigen Eigentums in relativ wenigen Händen zu wirtschaftlichen Oligopolen oder Monopolen führen, die die Nutzung der Technologie auf einige wenige Saatgutarten beschränken würden. Dies könnte zu einer geringeren Artenvielfalt führen. Drittens könnte das Gene Editing bei unverantwortlichem Einsatz Risiken für die menschliche Gesundheit und die biologische Vielfalt in der Umwelt mit sich bringen. Um all diese Risiken zu beherrschen und eine gerechte Verteilung und den Zugang von Kleinbauern zu solchen Innovationen zu gewährleisten, ist eine verstärkte Forschung und ein öffentlicher Dialog von entscheidender Bedeutung.

    Mit den jüngsten Beschlüssen folgt das EU-Parlament in diesem Bereich den Empfehlungen des WEF-Berichts und ebnet den Weg für eine breitere Nutzung gentechnisch veränderter Pflanzen in der EU. Der damit verbundene öffentliche Diskurs trägt zur schrittweisen Gewöhnung der Bevölkerung an die Genomik und die Biotechnologien der nächsten Generation bei.

    Die höhere Effizienz und Präzision der Genom-Editierung, zusammen mit Vorteilen für die Nachhaltigkeit, wirtschaftlichem Druck und gesetzlicher Regulierung, wird mittelfristig zu einem breiten und wachsenden Einsatz gentechnisch modifizierter Nutzpflanzen führen. Große Agrarkonzerne können dank Skaleneffekten und wirtschaftlicher Attraktivität gentechnisch veränderte Sorten verstärkt auf den Märkten dominieren, was es kleineren Betrieben erschwert, mit konventionellen Pflanzen zu konkurrieren. Langfristig könnte dies zu einer Verdrängung herkömmlicher Pflanzen führen, was möglicherweise unvorhersehbare Auswirkungen auf die Umwelt hat. Eine solche Dominanz von gentechnisch veränderten Sorten könnte die genetische Vielfalt verringern und damit die Umweltstabilität und Anpassungsfähigkeit der Landwirtschaft gefährden.

    Potenzielle Risiken der Genome-Editierung für die genetische Vielfalt und Ökosysteme

    Im Artikel „The need for assessment of risks arising from interactions between NGT organisms from an EU perspective“, der im April 2023 im Environmental Sciences Europe Journal veröffentlicht wurde, ziehen die Wissenschaftler folgende Schlussfolgerungen:

    Neue genomische Verfahren (NGTs) ermöglichen die Entwicklung neuer Genotypen und Merkmale auf unterschiedliche Weise und mit unterschiedlichen Ergebnissen im Vergleich zu bisherigen gentechnischen Methoden oder konventioneller Züchtung (einschließlich nicht-gezielter Mutagenese).

    Das Spektrum der Arten, die für NGTs zugänglich sind, geht weit über die Anwendungen der bisher eingesetzten gentechnischen Verfahren (EGTs) hinaus. Obwohl ihre Wirksamkeit von Fall zu Fall unterschiedlich sein kann, umfassen diese Anwendungen ein breites Spektrum von Nahrungspflanzenarten und Nutztieren, aber auch nicht-domestizierte Arten wie Bäume und andere Pflanzen, Insekten, Wirbeltiere und Mikroorganismen und erstrecken sich somit über alle Lebensbereiche. …. Viele der Arten, auf die NGT-Anwendungen abzielen, haben auch das Potenzial, ohne wirksame Bekämpfung über längere Zeiträume zu überleben und sich auszubreiten. Dies kann zu Next-Generation-Effekten führen, die im Labor nicht beobachtet wurden.

    Eine große Anzahl von gentechnisch veränderten Organismen, die von NGTs abgeleitet sind, einschließlich verschiedener Spezies mit einer Vielzahl unterschiedlicher Eigenschaften (beabsichtigt oder unbeabsichtigt), könnten innerhalb kurzer Zeit in dieselbe Aufnahmeumgebung freigesetzt werden. Je nach Ausmaß der Freisetzungen, ihrer Dauer und den Eigenschaften der Organismen können diese NGT-Organismen auch absichtlich oder unbeabsichtigt miteinander interagieren.

    Diese Wechselwirkungen können additiv, synergistisch, antagonistisch oder kumulativ sein.

    Daher können ihre beabsichtigten und unbeabsichtigten Wechselwirkungen und potenziell neu auftretenden Gefahren im Vergleich zu EGT-Organismen mehr Aufmerksamkeit und Berücksichtigung erfordern.

    Kombinatorische Effekte erhöhen in der Regel den Grad der Komplexität und verringern den Grad der Vorhersagbarkeit.

    Wenn es daher in kurzer Zeit zu großflächigen Freisetzungen von NGT-Organismen in die Umwelt kommt, können ihre Auswirkungen auf die genetische Vielfalt und die damit verbundenen Ökosysteme weit über das hinausgehen, was im Vergleich zu natürlichen Prozessen und konventionellen Züchtungstechniken zu erwarten wäre.

    Dominanz großer Agrarkonzerne und die Zukunft kleiner Betriebe

    Fortschritte in der Genomik erfordern kapitalintensive Technologien, die vor allem großen Agrarkonzernen zugänglich sind. Diese könnten die Pflanzenentwicklung dominieren und ihre Marktstellung durch Patente und geistiges Eigentum weiter stärken. Ob es durch politische und gesetzliche Rahmenbedingungen gelingt, ein Gleichgewicht zwischen großen Agrarfirmen und kleineren Betrieben zu schaffen, bleibt angesichts des erheblichen Unterschieds im biotechnologischen Know-how fraglich.

    Potenzielle Risiken der Genome-Editierung für die menschliche Gesundheit

    Die genomischen Fortschritte in der Landwirtschaft könnten tiefgreifende Veränderungen für Verbraucher mit sich bringen. Genomisch veränderte Pflanzen versprechen Vorteile wie verbesserte Nährwerte, weniger Pestizidrückstände und potenziell niedrigere Preise. Diese Produkte werden als ethische Alternative beworben, da sie aus nachhaltiger und ressourcenschonender Landwirtschaft stammen. Mittelfristig könnten auch Lebensmittel entstehen, die gezielt auf gesundheitliche Bedürfnisse abgestimmt sind, wie etwa Pflanzen mit reduzierten Allergenen oder verstärkten gesundheitlichen Vorteilen. In Verbindung mit personalisierten Ernährungsplänen, die auf den Genomdaten eines Verbrauchers basieren, könnte das Angebot an Lebensmitteln künftig stärker auf individuelle Bedürfnisse zugeschnitten sein – so das große Versprechen der Agrarbiowissenschaftsunternehmen.

    Bei aller Euphorie dürfen die potenziellen Risiken für die menschliche Gesundheit nicht unterschätzt werden. In der im International Journal of Molecular Sciences veröffentlichten Studie „CRISPR Variants for Gene Editing in Plants: Biosafety Risks and Future Directions“ ist Folgendes nachzulesen:

    Die Verbesserung gentechnisch veränderter Pflanzen kann die Landwirtschaft revolutionieren, die Ernteerträge verbessern und die Mehlproduktion auf vielfältige Weise steigern. Es gibt jedoch Probleme in Bezug auf die biologische Sicherheit dieser Pflanzen, vor allem in Bezug auf die Fähigkeit, unbeabsichtigte Ergebnisse hervorzurufen, einschließlich des Auftretens neuartiger Allergene oder Toxine, die die menschliche Gesundheit und die Umwelt beeinträchtigen würden. Gen-Editing-Techniken wie CRISPR/Cas9 bieten wirksame Werkzeuge, um die genetische Editierung von Pflanzen zu modifizieren. Es besteht jedoch das Risiko, dass diese Präzision neue Gene oder regulatorische Elemente hervorbringen könnte, die Probleme mit der biologischen Sicherheit auslösen könnten. In einer kürzlich durchgeführten Studie wurde beispielsweise über die Bildung einer neuen Stärke in einer gentechnisch veränderten Kartoffel berichtet, die zur Produktion von Acrylamid führte. Dieses Nervengift entsteht, wenn bestimmte Lebensmittel bei hohen Temperaturen gekocht werden. In ähnlicher Weise haben Wissenschaftler Bedenken geäußert, dass die Genomeditierung zu neuartigen Pflanzenallergenen und unerwarteten toxikologischen Effekten führen könnte.

    Um die Sicherheit von gentechnisch veränderten Pflanzen für den menschlichen Verzehr und die Umwelt zu gewährleisten, müssen strenge Biosicherheitsbewertungen durchgeführt werden.

    Die Sicherheitsbewertung für die menschliche Gesundheit konzentriert sich auf Toxikologie, Allergenität und Nährwert. Toxikologische Studien bewerten, ob der Verzehr von veränderten Pflanzen die menschliche Gesundheit schädigt, während Allergenitätsbewertungen darauf abzielen, potenzielle allergene Proteine zu identifizieren, die während des genetischen Veränderungsprozesses eingeführt werden. Darüber hinaus stellt die Nährwertanalyse sicher, dass die veränderten Pflanzen ihre essentiellen Nährstoffe erhalten oder verbessern, was ihren potenziellen Nutzen für die menschliche Ernährung erhöht. 

    Man darf jedoch nicht vergessen, dass der menschliche Stoffwechsel hochkomplex ist und sich im langsamen evolutionären Tempo an neue Nahrungsmittelquellen angepasst hat. Angesichts der schnellen Entwicklung und Einführung genomischer Pflanzensorten entstehen jedoch einige Bedenken.

    Obwohl einzelne genomisch veränderte Pflanzen möglicherweise sicher sind, könnten Wechselwirkungen auftreten, wenn verschiedene genmodifizierte Nahrungsmittel regelmäßig und in Kombination verzehrt werden. Dies könnte unvorhergesehene metabolische Effekte nach sich ziehen, die durch veränderte Protein- oder Stoffwechselprofile in diesen Pflanzen ausgelöst werden.

    Genomische Eingriffe zur Verbesserung des Nährstoffgehalts, etwa durch die Erhöhung bestimmter Vitamine oder Mineralstoffe, könnten das Mikronährstoffprofil der menschlichen Ernährung beeinflussen. Da der menschliche Stoffwechsel auf bestimmte Nährstoffverhältnisse angewiesen ist, könnte eine dauerhafte Veränderung in einer breiten Produktpalette Anpassungen im Nährstoffhaushalt erfordern.

    Langfristige und kombinierte Effekte des regelmäßigen Verzehrs genomeditierter Pflanzen sind noch nicht ausreichend erforscht. Diese kumulativen Effekte sind komplex und hängen von Faktoren wie Genotyp, Mikrobiom und individuellem Stoffwechselzustand ab. Da neue Eigenschaften häufig durch molekulare Veränderungen in spezifischen Stoffwechselwegen eingebracht werden, könnten unerwartete Auswirkungen auf den gesamten Metabolismus auftreten.

    Zudem beeinflussen die chemischen und biologischen Profile genmodifizierter Pflanzen das menschliche Mikrobiom, das eng mit dem Immunsystem und dem Stoffwechsel verbunden ist. Veränderungen in der Zusammensetzung der Nahrungsmittel über eine Vielzahl von Produkten hinweg könnten das Zusammenspiel zwischen Mikrobiom und Stoffwechsel langfristig beeinflussen, was zusätzliche Forschung erfordert.

    Aktuell liegen nur begrenzte Langzeitstudien vor, die sich mit den gesundheitlichen Auswirkungen einer kontinuierlichen Aufnahme solcher Produkte über Generationen hinweg befassen. Um verlässliche Aussagen zu treffen, sind umfangreiche Langzeitstudien nötig, die die kombinierten Effekte der genomisch veränderten Pflanzen auf den Stoffwechsel und die allgemeine Gesundheit untersuchen.

    Unerwartete DNA-Schäden durch CRISPR-Cas

    Am 27. November 2024 hat ein Forscherteam der ETH Zürich schwerwiegende Nebenwirkungen des Einsatzes der Genschere CRISPR-Cas aufgedeckt. CRISPR-Cas, oft als „Genschere“ bezeichnet, ermöglicht präzise Eingriffe in die DNA. Dabei wird die DNA genau an der Stelle geschnitten, an der das Erbgut verändert werden soll. Die Zelle repariert diesen Schaden auf zwei mögliche Arten: eine schnelle, aber ungenaue Methode, oder eine langsamere, präzisere Methode, die als „homology-directed repair“ (HDR) bekannt ist. Forscher bevorzugen HDR, da es genaue Veränderungen ermöglicht.

    Um HDR zu fördern, wurde eine Substanz namens AZD7648 eingesetzt. Diese blockiert die schnelle Reparatur und zwingt die Zelle, den präzisen HDR-Weg zu nutzen. Allerdings hat die ETH-Studie gezeigt, dass AZD7648 unerwartete Nebenwirkungen hat: In manchen Fällen kommt es zu massiven Schäden im Erbgut, darunter der Verlust ganzer Chromosomenarme oder großer DNA-Bereiche. Solche Veränderungen machen die DNA instabil und können schwerwiegende Folgen haben.

    Diese Defekte wurden erst entdeckt, als die Forscher das gesamte Genom überprüften, nicht nur die gezielt bearbeiteten Bereiche.

    Für uns ist das ein herber Rückschlag, denn wir hatten uns wie andere Wissenschaftler erhofft, mit der neuen Technik die Entwicklung von Gentherapien zu beschleunigen“, erklärte der Leiter des Forschungsteams.

    Die Wissenschaftler arbeiten intensiv an der Verbesserung der Methode. Ob CRISPR-Cas eines Tages als wirklich sicher gelten kann, wird die Zukunft zeigen.

    3. Wo Gegenwart und Zukunft verschmelzen

    In einer zunehmend von Technologie und Innovation geprägten Welt erleben wir einen entscheidenden Wendepunkt, an dem die Gegenwart der Landwirtschaft mit der Vision der Zukunft verschmilzt. Die Landwirtschaft von morgen entsteht nicht mehr ausschließlich in Forschungslaboren, sondern findet bereits auf den Feldern der Gegenwart Anwendung. Es geht dabei nicht nur um die Produktion von Nahrungsmitteln, sondern um die umfassende Neugestaltung ganzer Agrarökosysteme, die langfristig sowohl die Bedürfnisse der Menschen als auch die Umwelt prägen werden.

    Fünf Jahre nach der Veröffentlichung des WEF-Berichts „Innovation with a Purpose: The Role of Technology Innovation in Accelerating Food Systems Transformation“ sind die dort vorgestellten technologischen und politischen Maßnahmen längst in die Strategien großer Agrarbiotech-Konzerne eingeflossen. Ein herausragendes Beispiel hierfür ist die Bayer AG, insbesondere mit ihrer Sparte Bayer CropScience, die diese Ansätze gezielt in ihren systemischen Lösungen verankert hat.

    Im Jahr 2023 präsentierte das Unternehmen seine Vision zur Transformation des landwirtschaftlichen Umfelds in den nächsten zehn Jahren der breiten Öffentlichkeit. Unter dem Motto „Think Global – Act Local“ stellte der Konzern umfassende Systemlösungen vor, die auf die spezifischen Anforderungen in Nordamerika, EMEA (Europa, Naher Osten und Afrika), Lateinamerika und der Asien-Pazifik-Region zugeschnitten sind.

    Diese zukunftsweisenden Ansätze wurden anhand eindrucksvoller 3D-Animationen veranschaulicht, um komplexe Konzepte anschaulich und verständlich darzustellen. In der Präsentation ging es darum, wie innovative Technologien und Strategien Landwirte weltweit dabei unterstützen können, nachhaltiger, effizienter und resilienter auf die Herausforderungen der kommenden Jahre zu reagieren.

    Im Folgenden werfen wir einen genaueren Blick auf die verschiedenen Stationen dieser globalen Präsentation und die für jede Region entwickelten Lösungsansätze.

    Beginnen wir in Illinois, USA, wo John eine beeindruckende 5.000 Hektar große Farm bewirtschaftet. Für US-amerikanische Verhältnisse zählt sein Betrieb zu den großen industriellen Landwirtschaftsbetrieben.

    Mit der nahtlosen Integration digitaler Technologien und moderner Biotechnologie aus einer Hand hat John seine Einkommensmöglichkeiten erheblich gesteigert. Vernetzte Systeme ermöglichen ihm, den Betrieb effizienter zu gestalten, während modernste Tools die Bewirtschaftung seiner Flächen erleichtern.

    Auf der anderen Seite des Atlantiks treffen wir Pablo aus Almería, Spanien. Er betreibt eine 20 Hektar große Tomatenplantage, die in dieser Region als mittelgroß gilt.

    Pablos Erfolg basiert auf einem umfassenden Technologiekonzept, das digitale Lösungen mit Biotechnologie und Pflückrobotern kombiniert. Diese „All-inclusive-Lösung“ von Bayer erleichtert nicht nur seine tägliche Arbeit, sondern ermöglicht ihm auch, schnell auf individuelle Kundenwünsche einzugehen und seine Wettbewerbsfähigkeit zu stärken.

    Die nächste Station führt uns in den Bundesstaat Paraná in Brasilien, wo die Bäuerin Ana eine rund 607 Hektar große Soja- und Maisfarm ganzjährig bewirtschaftet. Für diese Region handelt es sich um einen vergleichsweise großen Betrieb.

    Dank der Systemlösung von Bayer kann Ana vorteilhafte Einkaufskonditionen für Saatgut und Pflanzenschutzmittel nutzen sowie Zugang zu finanziellen und Versicherungsdienstleistungen erhalten. Ihre landwirtschaftlichen Maschinen sind so programmiert, dass sie mit den spezifischen Anwendungsparametern der Bayer-Produkte arbeiten, sobald diese zum Einsatz kommen. Durch den Einsatz von Präzisionslandwirtschaftstechnologien ist Ana in der Lage, ihre Ernte mit einem „Low Carbon“-Zertifikat auszuzeichnen, was ihre Produkte auf dem Markt wettbewerbsfähiger macht.

    Wir erreichen Indien, das bevölkerungsreichste Land der Welt. Dort trifft der Konzern auf Ramesh, einen Kleinbauern, der sich auf die Reiszucht spezialisiert hat und nun mit Unterstützung von Bayer auf eine zukunftssichere Landwirtschaft umgestellt wird.

    In einem Land, in dem mehr als die Hälfte der arbeitenden Bevölkerung in der Landwirtschaft tätig ist, fördert Bayer die vollständige Robotisierung der Bearbeitungsprozesse auf kleinen Betrieben. Wie genau diese Arbeitskräfte – wie durch eine „magische Hand“ – in die urbanen Regionen umgesiedelt werden sollen, bleibt jedoch unklar. Was jedoch feststeht, ist, dass Ramesh mit Hilfe von Bayer nun in der Lage ist, mehr Reis mit weniger Wasser und weniger Arbeitskräften zu produzieren.

    Der systemische Ansatz von Bayer reflektiert die jeweiligen regionalen Herausforderungen, wie Arbeitskräftemangel, Ressourcenschwund und die Notwendigkeit der Effizienz in unterschiedlichen Maßstäben der Landwirtschaft. In den USA und Brasilien geht es vor allem um Effizienzsteigerung und Ertragsoptimierung bei großen Betrieben, während in Spanien die Anpassungsfähigkeit und Flexibilität der Landwirtschaft im Vordergrund stehen. In Indien hingegen wird die Automatisierung und Reduzierung des Arbeitsaufwands als Schlüssel zur Zukunftssicherung kleinerer Betriebe betrachtet.

    In diesen Szenarien verschiebt sich der Fokus von den Landwirten als aktiven Akteuren hin zu den Technologien und Produkten, die von Unternehmen wie Bayer bereitgestellt werden. Landwirte agieren zunehmend in einer automatisierten und technologiegetriebenen Umgebung, in der die Verantwortung für den Erfolg ihrer Betriebe immer mehr auf die Lösungen von Agrarbiotech-Konzernen übergeht. Sie treten weniger als Entscheidungsträger auf und übernehmen stattdessen die Rolle von Anwendern und Bedienern dieser Technologien.

    Diese Entwicklung könnte als Entmündigung der Landwirte angesehen werden, da ihre Abhängigkeit von externen Unternehmen wächst, die alle wesentlichen Ressourcen bereitstellen, von Saatgut und Pflanzenschutzmitteln über digitale Plattformen und Automatisierungstechnik bis hin zur finanziellen Infrastruktur. Langfristig könnte dies dazu führen, dass Landwirte sich lediglich als Nutzer von Systemen sehen, die von großen multinationalen Konzernen kontrolliert werden, anstatt als unabhängige Unternehmer, die ihre eigenen Entscheidungen treffen.

    Die Befürchtung, dass Landwirte zu „Statisten“ in ihrem eigenen Geschäft werden, wird immer lauter geäußert, vor allem in Anbetracht der zunehmenden Konzentration von Macht in den Händen weniger großer Akteure.

    4. Die Magie der kleinen Schritte

    Transformationen in der heutigen Welt geschehen oft nicht durch plötzliche, radikale Veränderungen, sondern durch eine Abfolge kleiner, systematischer Schritte. Es ist gerade die Summe dieser unscheinbaren, aber beständigen Aktionen, die am Ende den Wandel bewirken.

    Im Rahmen der globalen Umgestaltung von Nahrungsmittelsystemen können Initiativen wie die Food-Chain-Reaction-Übung, der WEF-Bericht Innovation with a Purpose: The role of technology innovation in accelerating food systems transformation, der WHO-Ansatz One Health oder die Gemeinsame Agrarpolitik (GAP) 2023–2027 der EU als Beispiele für solche systematischen Fortschritte betrachtet werden.

    GAEA (Giving-to-Amplify-Earth-Action) ist ein weiteres Projekt des Weltwirtschaftsforums, das zu dieser Kategorie gehört.

    Philanthropie

    „Wir befinden uns an einem Wendepunkt in unseren Bemühungen, den Planeten wieder auf Kurs zu bringen, um unsere Klimaziele zu erreichen. Um die Geschwindigkeit und das Ausmaß zu erreichen, die erforderlich sind, um die Systeme der Erde zu heilen, müssen wir nicht nur privates Kapital und staatliche Mittel freisetzen, sondern auch den Philanthropie-Sektor als echte Katalysatorkraft, um die notwendige Beschleunigung zu erreichen“, erklärte Klaus Schwab, Gründer und Executive Chairman des Weltwirtschaftsforums, in der Pressemitteilung zur Ankündigung von GAEA.

    Die neue Initiative zielt darauf ab, philanthropisches Kapital einzusetzen, um jährlich 3 Billionen US-Dollar aus öffentlichen und privaten Quellen zu mobilisieren. Diese Mittel sollen dazu beitragen, den Klimawandel zu bekämpfen und den Verlust der Natur aufzuhalten.

    „Die GAEA schärft das Bewusstsein für den 4P-Ansatz – öffentliche (public), private und philanthropische Partnerschaften – und erleichtert dessen Anwendung. Durch radikale Kooperationen, die durch katalytische Philanthropie angetrieben werden, werden die Mittel und das Fachwissen freigesetzt, die erforderlich sind, um echte Veränderungen zu erreichen“,heißt es auf der GAEA-Internetseite.

    Im Fokus stehen dabei drei zentrale Ziele: die Erreichung von Netto-Null-Treibhausgasemissionen, die Umkehrung des Verlusts der Natur sowie die Wiederherstellung der biologischen Vielfalt – und das alles bis zum Jahr 2050. Das White Paper „The Role of Public-Private Philanthropic Partnerships in Driving Climate and Nature Transitions“ definiert die Schwerpunkte im Agrarsektor und der Forstwirtschaft, die für den Einsatz von 4P-Modellen geeignet sind. Dazu gehören unter anderem die Verbesserung der Tiergesundheit, die Steigerung der Saatguteffizienz, die Förderung fortschrittlicher Saatguttechnologien, die Reduktion des Düngemitteleinsatzes, der verstärkte Einsatz von Stickstoffinhibitoren, die Ausweitung von Schutzgebieten sowie die Wiederherstellung degradierten Landes.

    Was sich hinter dem 4P-Ansatz versteckt, ist in diesem Bild schematisch dargestellt:

    World Economic Forum´s GAEA initiative – Briefing Paper October 2024

    Die GAEA-Initiative verfolgt eine gezielte Strategie, bei der philanthropisches Kapital als Schlüsselressource eingesetzt wird, um eine enge Zusammenarbeit zwischen Philanthropen, staatlichen Akteuren und dem Finanzsektor zu fördern. Philanthropen übernehmen dabei eine erweiterte Rolle: Sie tragen nicht nur finanzielle Mittel bei, sondern unterstützen gezielt innovative und risikoreiche Projekte, die für andere Akteure weniger attraktiv sind. Ihr Einfluss reicht über die Bereitstellung von Ressourcen hinaus, da sie maßgeblich zur Priorisierung und strategischen Ausrichtung der Projekte beitragen.

    Regierungen und Finanzsektor sollen dieses Kapital nutzen, um risikoreiche Investitionen abzusichern und Projekte investitionsfähig zu machen. Gleichzeitig profitieren alle Akteure von der gebündelten public-philathropic Expertise, um hochwirksame Investitionen zu identifizieren und umzusetzen.

    Damit fördert das Modell eine engere Integration der beteiligten Akteure und strebt an, traditionelle Grenzen zwischen ihnen aufzuweichen. Dies ermöglicht eine zentralisierte Steuerung und Abstimmung, die Effizienz und Ressourcenbündelung maximieren soll. Allerdings könnte diese Verschmelzung die Unabhängigkeit einzelner Akteure einschränken, was Fragen hinsichtlich Transparenz und demokratischer Kontrolle aufwirft.

    In diesem Zusammenhang ist das Interview mit dem Hamburger Soziologieprofessor Frank Adolff über die „Verschränkung von Philanthropie und Kapitalismus“ besonders aufschlussreich. Die folgenden Auszüge verdeutlichen das zugrunde liegende Dilemma:

    Sie kritisieren in einer Ihrer Veröffentlichungen, dass Philanthrokapitalisten die Philanthropie durch mehr und effektivere Philanthropie verbessern wollen. Wie kann ein „Mehr“ an Philanthropie ein Problem sein?

    Adloff: Das „Mehr“ ist dann ein Problem, wenn damit eine Machtposition einhergeht, die nicht mehr kontrollierbar ist. Wir haben das gleiche Phänomen im wirtschaftlichen Bereich: Da nennen wir es Monopolbildung. Monopole sind volkswirtschaftlich schädlich, weil sie Preise festlegen können, was sie unter Konkurrenz nicht könnten. In der Welt der Philanthropie müssen wir das demokratietheoretisch sehen: Wenn Akteure eine solche Machtstellung haben, können sie natürlich einerseits viel und schnell etwas bewegen. Andererseits ist das unkontrollierbar, und Akteure können ihre privaten Interessen durchsetzen. Bei der Gates-Stiftung ist beispielsweise kritisch begleitet worden, welchen Einfluss sie auf bestimmte medizinische Entwicklungen weltweit hat, ohne dass das demokratisch kontrolliert wird. Bei großen Organisationen besteht auch weniger die Neigung, mit kleinen zivilgesellschaftlichen Organisationen zu kooperieren, denn sie können mit ihren Mitteln ja selbst die Agenda setzen.

    Inwiefern spielt Eigeninteresse im Philanthrokapitalismus eine Rolle?

    Adloff: Das zeigt sich an den Verschränkungen zwischen unternehmerischem und philanthropischem Handeln. Ich bleibe mal bei dem Beispiel von Zuckerbergs Stiftung: Diese investiert philanthropisch – man kann es kaum noch Philanthropie nennen – wobei dies letztlich dem Mutterunternehmen zugutekommt. Oder die Gates-Stiftung: Nicht umsonst konzentriert diese sich auf Bildungspolitik. Da geht es um Digitalisierung der Schulen und pädagogische Konzepte. Letztendlich kann man nicht mehr klar unterscheiden: Geht es um philanthropische Bildungsprojekte oder geht es am Ende darum, das Mutterunternehmen mit Aufträgen zu versorgen?

    Zu GAEAs wachsender Zahl philanthropischer Partner gehören unter anderem der „Bezos Earth Fund“ von Jeff Bezos, die „Open Society Foundations (OSF)“ von George Soros, die „Rockefeller Foundation“, die „Gordon and Betty Moore Foundation“ des INTEL-Gründers Gordon Moore, die „BMW Foundation“ der Familie Quandt und die „IKEA Foundation“ der Familie Kamprad.

    Verschiebung der Eigentumsverhältnisse

    Die wachsende Weltbevölkerung und der steigende Bedarf an Lebensmitteln machen landwirtschaftliche Nutzflächen zu einer strategisch bedeutsamen Investition. Viele Philanthropen, insbesondere solche mit Verbindungen zu großen Investmentfonds, sehen Farmland als eine stabile Vermögensanlage, die selbst in Krisenzeiten ihren Wert behält oder sogar steigert.

    Der Besitz von Ackerland bedeutet Kontrolle über dessen Nutzung und beeinflusst maßgeblich landwirtschaftliche Entscheidungen, von der Produktion über die Erhaltung bis hin zur Nachfolgeplanung. Eigentümer setzen die Regeln, wie das Land bewirtschaftet wird und in welchem Umfang über seine Nutzung entschieden wird. Damit rückt ein weiterer entscheidender Aspekt der Transformation globaler Nahrungsmittelsysteme in den Fokus: die schrittweise Verschiebung der Eigentumsverhältnisse.

    „Mit fast 108.900 Hektar behielt Bill Gates 2021 seine Position als Amerikas größter privater Ackerlandbesitzer. Damit rangierte Gates im Ranking der größten Bodenbesitzer aber „nur“ auf Platz 49 – deutlich hinter Jeff Bezos, der auf Position 25 kam“, berichtet Agrarheute in Dezember 2023.

    Zu den größten privaten Landbesitzern in den USA zählen die Familie Emmerson, Eigentümer der Sierra Pacific Industries, eines der größten Forstunternehmen des Landes, mit einem Besitz von etwa 943.300 Hektar. Weitere prominente Landbesitzer sind John Malone, Gründer und Vorsitzender der Mediengruppe Liberty Media, der rund 890.700 Hektar besitzt, sowie Ted Turner, Medienmogul und Gründer von CNN, mit einem Landbesitz von etwa 809.700 Hektar.

    Der CNBC-Bericht „Why Bill Gates Is Buying Up U.S. Farmland“ beleuchtet die jüngsten Entwicklungen im Bereich des landwirtschaftlichen Landerwerbs und analysiert die damit verbundenen Auswirkungen.

    Land ist ein Vermögenswert mit steigendem Wert“, erklärt John Piotti, CEO von American Farmland Trust, in dem Beitrag. „Es besitzt nicht nur einen hohen intrinsischen Wert, sondern ist auch eine begrenzte Ressource.

    Nach Angaben des US-Landwirtschaftsministeriums befinden sich rund 30 % aller landwirtschaftlichen Flächen im Besitz von Personen, die selbst keine Landwirtschaft betreiben. Häufig kaufen Investoren diese Flächen von Landwirten, die das Land seit Jahrzehnten bewirtschaften. Viele dieser Landwirte verfügen zwar über erhebliches Vermögen in Form von Landbesitz, kämpfen jedoch mit knappen finanziellen Mitteln.

    Weitere Informationen über die größten Landbesitzer der Welt findet man hier.

    Die schrittweise Verschiebung der Eigentumsverhältnisse an landwirtschaftlichen Nutzflächen ist ein globales Phänomen mit weitreichenden Auswirkungen auf die Landwirtschaft und ländliche Regionen. Eine Pressemitteilung der Welthungerhilfe aus November 2020 mit dem Titel „Die Kluft beim Landbesitz wird weltweit größer“ zeigt, dass die Landungleichheit seit den 1980er Jahren stetig zunimmt.

    Weltweit kontrollieren die größten 1 % der Betriebe mittlerweile mehr als 70 % der landwirtschaftlich genutzten Flächen. Im Gegensatz dazu machen Kleinbauern etwa 80 % aller Landwirte aus, haben jedoch oft nicht die finanziellen Mittel, ihr Land zu erweitern oder wettbewerbsfähig zu bleiben. Auch in der EU ist dieser Trend erkennbar, da weniger als drei Prozent der Betriebe mehr als die Hälfte der Ackerfläche bewirtschaften.

    Die folgende Abbildung veranschaulicht die Machtverhältnisse in der Landwirtschaft:

    Die größten 1 % der Betriebe kontrollieren etwa 70 % der landwirtschaftlichen Flächen.

    Zudem investieren immer mehr Finanzinstitutionen und Investmentfirmen wie BlackRock in Ackerland als stabile und wertsteigernde Vermögenswerte. Dies führt zu einer immer stärkeren Konzentration des Landbesitzes, der gleichzeitig weniger transparent wird. Diese Entwicklung fördert die Industrialisierung der Landwirtschaft und schwächt die Position kleiner Betriebe. Die Verschiebung der Landverhältnisse benachteiligt häufig Kleinbauern, indigene Gemeinschaften und ländliche Bevölkerungen, die auf den Zugang zu Land angewiesen sind. Die zunehmende Konzentration des Landbesitzes treibt zudem die Landpreise in die Höhe, was es für kleinere Landwirte noch schwieriger macht, mit großen Akteuren zu konkurrieren. Eine ungleiche Landverteilung trägt außerdem zur wachsenden Armut und Unsicherheit in der Lebensmittelversorgung bei.

    Da sich diese Trends ständig weiterentwickeln, ist es für die Beteiligten im Agrarsektor von entscheidender Bedeutung, auf dem Laufenden zu bleiben und sich an die sich ändernde Landschaft anzupassen“, heißt es auf der Webseite des Agrartechnologieunternehmens Farmonaut.

    Der Krieg in der Ukraine verdeutlicht, wie sich die geopolitische und wirtschaftliche Realität weiterentwickelt. Der Artikel „Inmitten des Kriegschaos: Ein neuer Bericht deckt die heimliche Übernahme von ukrainischem Agrarland auf“ zeigt auf, wie mehrere lokale Großagrarunternehmen, die nach wie vor größtenteils von Oligarchen kontrolliert werden, sich zunehmend westlichen Banken und Investmentfonds geöffnet haben – darunter prominente Akteure wie Kopernik, BNP oder Vanguard, die nun Anteile an den Unternehmen halten. Der Bericht warnt auch davor, dass die drückende Verschuldung der Ukraine von Finanzinstituten als Druckmittel genutzt wird, um den Wiederaufbau nach dem Krieg in Richtung weiterer Privatisierungs- und Liberalisierungsreformen in verschiedenen Sektoren, einschließlich der Landwirtschaft, voranzutreiben. Dies stellt eine Verlust-Situation für die Ukrainer dar: Während die Bevölkerung ihr Land entschlossen verteidigen möchte, unterstützen Finanzinstitute im Hintergrund die Konsolidierung von Ackerland durch Oligarchen und westliche Finanzinteressen.

    Steuerreformen

    Die „neue Normalität“ hat auch die Landwirte in Großbritannien erreicht. In den letzten Tagen haben landesweite Proteste von Bauern stattgefunden, die sich gegen die geplanten Änderungen der Erbschaftssteuer unter der Labour-Regierung wehren. Diese Änderungen, die ab April 2026 in Kraft treten sollen, betreffen vor allem landwirtschaftlich genutztes Land. Künftig können Bauern nur noch eine begrenzte Steuererleichterung auf den Wert ihrer landwirtschaftlichen Vermögenswerte beanspruchen. Die Steuerbefreiung für Beträge über 1 Million Pfund wird von bisher 100 % auf nur noch 50 % reduziert. Dies sorgt vor allem bei Familienbetrieben für massive Bedenken, da sie durch diese Regelungen Gefahr laufen, ihre Betriebe zu verlieren oder deren Fortbestand zu gefährden.

    Die geplante Gesetzesänderung, die landwirtschaftliche Betriebe durch eine erhöhte Steuerlast dazu zwingen könnte, Teile ihres Landes zu verkaufen, könnte als indirekte Form der Enteignung betrachtet werden. Solche Steuermaßnahmen sorgen in der Öffentlichkeit für Besorgnis, da sie den Übergang von landwirtschaftlichem Eigentum an große Konzerne oder internationale Investoren fördern könnten – eine Entwicklung, die als nachteilig für die Landwirtschaft und ländliche Gemeinschaften angesehen wird.

    Es ist so hart geworden, dass ich mir einen zweiten Job suche: Hinter den Kulissen der Agrarkrise“, titelt ein Artikel des Independent, der diese Entwicklung als einen weiteren Schlag für die Familienbetriebe beschreibt, die angesichts steigender Kosten und zunehmender Konkurrenz ums Überleben kämpfen.

    Inwieweit die schrittweisen Veränderungen von Eigentumsverhältnissen im Agrarsektor mit der kontroversen Vision aus einem WEF-Video von 2016 – „You will own nothing and be happy“ – in Verbindung stehen, bleibt abzuwarten. Diese Dynamik wirft jedoch Fragen über die Zukunft des Landbesitzes und die Kontrolle über Nahrungsmittelproduktion auf – Themen, die weitreichende gesellschaftliche und wirtschaftliche Implikationen haben werden.

    5. Über Kontraste der aktuellen Politik

    Die globale Umgestaltung der Nahrungsmittelsysteme wird maßgeblich durch die Verbindung zwischen Ernährung und Klimawandel begründet. Doch wie groß ist der Anteil der Lebensmittelproduktion an den weltweiten Treibhausgasemissionen?

    Die Schätzungen variieren: Einige Studien gehen von etwa einem Viertel aus, während andere sogar mehr als ein Drittel angeben. Die folgende Grafik illustriert die Spannweite der Ergebnisse und gibt einen Überblick über die verschiedenen Modelle zur Quantifizierung des Einflusses von Lebensmitteln auf die Emissionen:

    Our World in Data

    Die Landwirtschaft ist eine multifaktorielle Quelle für CO2-Emissionen. Dazu zählen Landnutzungsänderungen wie Entwaldung, der Energieverbrauch für Maschinen und Bewässerung, die Produktion und Nutzung von Düngemitteln, Tierhaltung und Tierfutterproduktion, Transport sowie der Abbau organischer Masse im Boden.

    Die zitierten Statistikmodelle und Erhebungsmethoden bilden die Grundlage für eine Vielzahl gesellschaftlicher und politischer Maßnahmen weltweit. John Podesta, einer der führenden Köpfe hinter der „Food Chain Reaction“-Übung, betonte auf der diesjährigen UN-Klimakonferenz COP29 in Baku die Dringlichkeit der globalen Lage:

    John Podesta – speaking at COP29 [Quelle: Rappler]

    In seiner Rede rief er dazu auf, die Wechselwirkungen zwischen Ernährung, Klimawandel und gesellschaftlicher Stabilität stärker in den Fokus zu rücken. Sein Appell unterstrich die Notwendigkeit, bestehende Daten und Erkenntnisse konsequent in praxisorientierte Strategien umzusetzen, um die Ernährungssysteme widerstandsfähiger und nachhaltiger zu gestalten.

    Im Folgenden geht es nicht darum, die Richtigkeit des Narrativs über den Klimawandel und die Notwendigkeit von CO2-Reduktionen zu bewerten. Stattdessen betrachten wir kritisch das Verhalten jener Akteure, die diese Narrative fördern und globale Maßnahmen vorantreiben.

    Präsident Biden und Vizepräsident Harris haben in den letzten vier Jahren beispiellose Mittel für den Klimaschutz mobilisiert“, erklärte John Podesta auf der COP29. Gleichzeitig berichtete ntv bereits im März 2022, dass Biden den höchsten Militäretat in Friedenszeiten plant.

    „Die weltweiten Militärausgaben haben 2023 einen neuen Höchststand erreicht. Laut dem Stockholmer Friedensforschungsinstituts Sipri erreichten sie 2,44 Billionen US-Dollar. Mehr als ein Drittel entfallen auf die USA. Deutschland belegt Rang sieben“, berichtete der Bayerische Rundfunk BR24 im April 2024.

    Bemerkenswert ist, dass militärische CO2-Emissionen in UNO-Berichten nicht erfasst werden, da das Militär keine Berichtspflicht hat.

    Das US-Verteidigungsministerium ist weltweit der größte institutionelle Verbraucher fossiler Brennstoffe – und zugleich der größte institutionelle Emittent von Treibhausgasen. Eine Studie aus 2019 zeigt, dass das US-Militär, wäre es ein Land, allein durch seinen Treibstoffverbrauch der 47. größte Emittent weltweit wäre.

    Neta Crawford von der Boston University schätzte die Emissionen des Pentagons von 2001 bis 2018 auf 1,3 Milliarden Tonnen CO2. Dies übertrifft die jährlichen Emissionen von Ländern wie Schweden oder Dänemark. [NZZ]

    Und das US-Militär ist dabei nur eine von vielen Armeen weltweit.

    statista

    Armeen weltweit sind für schätzungsweise 6 % der globalen Treibhausgasemissionen verantwortlich, wie die britische Organisation Scientists for Global Responsibility im Jahr 2022 berichtet. Wäre das globale Militär ein eigenständiges Land, würde es in der Rangliste der Emissionen den vierten Platz einnehmen – noch vor Russland.

    Die tatsächlichen Werte könnten jedoch höher liegen, da indirekte Emissionen, etwa durch die Produktion von Rüstungsgütern oder Schutzbauwerke aus Stahlbeton, nicht erfasst werden. [NZZ]

    Die Herstellung von Waffen und Militärtechnik ist ressourcenintensiv und verursacht erheblichen CO2-Ausstoß, einschließlich Abfallprodukten und Umweltverschmutzung. Zudem beanspruchen Militärgebiete bis zu 6 % der weltweiten Landfläche, was ihre Nutzung und Verwaltung zu einem weiteren bedeutenden Faktor für Emissionen macht.

    Bei bewaffneten Konflikten steigen die CO2-Emissionen erheblich an. Ursache sind der massive Einsatz von Granaten, Bomben, Raketen und Munition sowie der hohe Treibstoffverbrauch der Kampfeinheiten. Zusätzlich haben Konflikte oft langfristig verheerende Folgen für die Umwelt, was die Nachhaltigkeit weiter untergräbt.

    Direkte Emissionen entstehen durch Brände von Tankdepots, Ölinfrastrukturen, Trümmern sowie Wald- und Feldbrände. Indirekt erhöhen Abholzung für Flüchtlingslager, Ressourcenverbrauch für die zivile Versorgung und Kämpfe in Nachbarregionen die CO2-Bilanz.

    Der Ukraine-Krieg allein verursachte im ersten Jahr geschätzte 155 Millionen Tonnen CO2, zusätzlich zu weitreichenden Zerstörungen wie der Sprengung des Kachowka-Staudamms.

    Angesichts der desaströsen Zustände in Bezug auf die UN-Nachhaltigkeitsziele erscheint es bemerkenswert, dass relevante Akteure langfristige Konflikte bevorzugen, anstatt auf eine schnelle, friedliche Beilegung hinzuarbeiten.

    Während die aktuellen Schlagzeilen sich auf die nächste Eskalationsstufe konzentrieren, zeichnet sich im Hintergrund ein Paradigmenwechsel in der nachhaltigen Investmentbranche ab – ein Wechsel, der die Definition von Nachhaltigkeit neu hinterfragt und angesichts militärischer Prioritäten in den Fokus rückt.

    Der Vermögensverwalter FiNet Asset Management GmbH beschreibt in seinem Online-Beitrag „Paradigmenwechsel in der nachhaltigen Investmentbranche: Rüstungsindustrie im Fokus“ eine bedeutende Entwicklung in der Welt der nachhaltigen Investments. Aufgrund geopolitischer Spannungen und regulatorischer Anpassungen überdenken Finanzinstitute ihre Haltung zur Rüstungsindustrie im Rahmen von ESG-Kriterien (Environmental, Social, Governance).

    Die EU-Kommission hebt in ihrer Verteidigungsstrategie hervor, dass ESG-Vorgaben Investitionen in die Verteidigungsindustrie – mit Ausnahme geächteter Waffen – nicht behindern sollten. Sie argumentiert, dass die Verteidigungsindustrie durch ihren Beitrag zu Resilienz und Sicherheit indirekt Nachhaltigkeit fördern könne. Kritiker sehen diese Vermischung von Sicherheits- und Nachhaltigkeitsaspekten skeptisch. Sie warnen davor, dass die Rüstungsindustrie durch signifikante Umwelt- und Klimaschäden den Grundsätzen der Nachhaltigkeit widerspricht und deren Konzept verwässern könnte.

    Dieser Paradigmenwechsel spiegelt die Spannungen zwischen geopolitischen Realitäten, ökonomischen Interessen und ethischen Prinzipien wider und zeigt, wie sich die Definition von Nachhaltigkeit in der ESG-Landschaft verändert.

    Die aktuellen Entwicklungen in der ESG-Debatte erinnern an das Sprichwort „Was nicht passt, wird passend gemacht“, da politische und wirtschaftliche Interessen zunehmend die ursprünglichen Nachhaltigkeitskriterien umformen und deren wissenschaftliche Integrität infrage stellen.

    Vor diesem Hintergrund ist es nachvollziehbar, warum Diskussionen und Forderungen nach „emissionsarmen Kühen“ von manchen als absurd oder grotesk angesehen werden.

    Wir wissen, was zu tun ist.
    Machen wir uns an die Arbeit.
    Bringen wir es hinter uns.”
    John Podesta, Rede auf der COP29 UN-Klimakonferenz

    6. Ausblick

    Der Wandel der Nahrungsmittelsysteme ist unaufhaltsam: ob durch die Veränderung der Nachfrage durch neuartige Lebensmittel, die biotechnologische Optimierung traditioneller Grundnahrungsmittel oder die Effizienzsteigerung und Digitalisierung entlang der gesamten „Farm-to-Fork“-Kette. Die Art und Weise, wie der Mensch seine Nahrung erzeugt, scheint eine neue Evolutionsstufe zu erreichen. Dieser Prozess ist vielschichtig, erfolgt schrittweise und bleibt für große Teile der Bevölkerung im Alltag nahezu unbemerkt. Dabei zieht sich die Globalisierung und die zunehmende Konzentration von Macht und Einfluss in den Händen weniger Akteure wie ein roter Faden durch diese Entwicklungen.

    Im Rahmen sogenannter Philanthropic-Public-Private-Partnerships entstehen Machtstrukturen, die Landwirte zunehmend zu Statisten in ihrem eigenen Geschäft machen. Seit den frühen 2000er-Jahren hat der Begriff Big Food einen festen Platz neben Ausdrücken wie Big Oil, Big Tech oder Big Pharma gefunden. Durch ihre politischen und wirtschaftlichen Interessen sind diese „Big Players“ in der Lage, die ursprünglichen Nachhaltigkeitskriterien, die als Grundlage für die Transformation der Nahrungsmittelsysteme dienen, flexibel anzupassen – oft zu ihrem eigenen Vorteil.

    Alles in allem bestätigen die Entwicklungen der letzten Jahrzehnte Henry Kissingers Aussage: „Wer die Nahrungsmittelversorgung kontrolliert, kontrolliert die Menschen.“

    Es liegt an uns, wie wir mit dieser Wahrheit umgehen. Dabei spielen das Verhalten, die Entscheidungen und die Prioritäten von Individuen und Gesellschaften eine zentrale Rolle, denn sie sind nicht nur ein integraler Bestandteil des Wandels der Nahrungsmittelsysteme, sondern auch dessen treibende Kraft.

    Unser Alltag wird zunehmend durch den Wunsch bestimmt, Familie, Beruf, Haushalt und Freizeit miteinander in Einklang zu bringen. Dabei haben die Flexibilisierung der Arbeitswelt und die damit einhergehenden Veränderungen unserer Routinen traditionelle Tagesrhythmen weitgehend aufgelöst. Feste Zeiten für Mahlzeiten werden durch flexible, individuell an Arbeit, Sport oder Freizeit angepasste Zeitpläne ersetzt. Dieser dynamische Lebensstil führt zu einem steigenden Bedürfnis nach effizientem Zeit- und Ressourcenmanagement – ein Erfolgsfaktor, der den Alltag vieler Menschen strukturiert.

    Diese Entwicklung spiegelt sich in Ernährungstrends wider, die auf zeitsparende Lösungen abzielen. Die Menschen möchten den Aufwand für den Einkauf und die Zubereitung von Lebensmitteln minimieren, ohne auf gesunde, schnelle, praktische und natürliche Alternativen verzichten zu müssen. Zugleich können oder möchten viele nicht mehr selbst kochen, sehnen sich jedoch weiterhin nach abwechslungsreicher und hochwertiger Ernährung. Besonders jüngere Verbraucher und Personen mit höherem Einkommen treiben dabei den Wunsch nach Innovationen voran: Sie suchen nicht nur nach neuen Geschmacksrichtungen, sondern auch nach modernen Konzepten, die ihren flexiblen Lebensstil unterstützen. Dabei bleiben Nachhaltigkeit und Gesundheit entscheidende Kriterien.

    In einer zunehmend urbanen und alternden Gesellschaft gewinnt zudem das Preis-Leistungs-Verhältnis an Bedeutung. Produkte sollen einerseits erschwinglich, andererseits bequem und einfach zugänglich sein. Diese vielfältigen Anforderungen prägen die Zukunft der Ernährung: Sie wird individueller und flexibler, an den hektischen Lebensstil angepasst, und orientiert sich immer stärker an dem Wunsch, Effizienz und Genuss miteinander zu verbinden.

    Die beschriebenen gesellschaftlichen Entwicklungen begünstigen zweifellos die großindustrielle Agrarproduktion und Big Food. Dank ihrer Effizienz, Skalierbarkeit und Innovationskraft können diese Akteure die Bedürfnisse einer zunehmend urbanen, zeitknappen und auf Bequemlichkeit ausgerichteten Gesellschaft besonders effektiv erfüllen.

    Welche Rolle lokal orientierte Produzenten, Modelle wie die solidarische Landwirtschaft oder kleinbäuerliche Genossenschaften in der „Food & Farm 4.0 Landschaft“ künftig spielen und ob sie die bestehenden Machtverhältnisse in der Branche wirksam herausfordern können, bleibt abzuwarten.

    Eine tiefgreifende Verschiebung dieser Machtverhältnisse wird jedoch wahrscheinlich umfassendere strukturelle Veränderungen erfordern – etwa eine gerechtere Verteilung von Macht und Ressourcen innerhalb der Lebensmittelproduktion, stärkere politische Eingriffe und möglicherweise sogar eine grundlegende Anpassung der globalen Wirtschaftsordnung.


    Quellen (Stand vom 09.12.2024)

  • The Wonderful World of Life: Cells, Proteins, and the Immune System

    The Wonderful World of Life: Cells, Proteins, and the Immune System

    Life, in its incredible diversity and complexity, is the result of a fascinating interplay of countless biological processes and structures that often operate in the hidden. Every cell in our body, no matter how insignificant it may seem, is a small wonder of nature. It houses a multitude of proteins that, like tiny machines, tirelessly work to preserve life. These proteins not only ensure that our cells perform their daily tasks but also play a crucial role in protecting our bodies.

    Our immune system, one of the most impressive creations of evolution, defends us against countless threats – from invading microorganisms to degenerated cells that can endanger our health. This defense system is a complex network of cells, proteins, and chemical signals that together make the difference between health and disease. In this essay, we will focus on this „wonderful world of life”, with a particular emphasis on the immune system. The goal of this work is to provide a comprehensive and accessible understanding of how the immune system functions. It is recommended to read the chapters in the given order so that the information builds upon itself step by step, allowing for a deeper understanding of the topic.

    Let us now immerse ourselves in this marvellous world of life to understand how the invisible preserves our lives.

    1. A Look Beneath the Skin – A Journey Within
    2. The Cell – The Fundamental Building Block
    3. Proteins – The Building Blocks of Life
    4. From Code to Protein – Cellular Mechanisms
    5. The Body’s Shield – Our Immune System
    6. Hidden Defense – The Power of Cross-Immunity
    7. Key takeaways
    8. Closing words

    Complete Table of Contents

    1. A Look Beneath the Skin – A Journey Within
    2. The Cell – The Fundamental Building Block
    3. Proteins – The Building Blocks of Life
    4. From Code to Protein – Cellular Mechanisms
    4.1. From Signals to Actions
    4.2. The Protein Biosynthesis
    4.2.1. Transcription
    4.2.2. Translation
    4.3. The Protein
    5. The Body’s Shield – Our Immune System
    5.1. Origin of Immune Cells
    5.2. Mechanisms of Immune Recognition: NON-SELF vs. SELF
    5.2. a) SELF-Markers: MHC Molecules
    5.2. b) SELF-Markers: CD47 Molecule
    5.2. c) SELF-Markers: Sialic Acid
    5.3. The Nonspecific Immune Defense
    I – First Line of Defense: Mechanical and Chemical Barriers
    II – Second Line of Defense: White Blood Cells
    5.3. a) Granulocytes
    5.3. b) Macrophages
    5.3. c) Dendritic Cells
    5.3. d) Natural Killer Cells
    5.4. The Complement System
    5.5. The Specific Immune Defense
    5.5.1. Key Players of the Adaptive Immune Response
    5.5.1. a) Development and Maturation of Lymphocytes
    5.5.1. b) Humoral and Cellular Defense Mechanisms
    5.5.1. c) Migration and Distribution of Lymphocytes
    5.5.1. d) Structure of the Lymphatic Organs
    5.5.2. Naive B and T Cells: The Diversity of the Immune Response
    5.5.3. The Role of Antigen-Presenting Cells (APCs)
    5.5.3. a) Antigen Presentation via MHC-II Molecules
    5.5.3. b) Antigen Presentation via MHC-I Molecules
    5.5.3. c) Dendritic Cells Migrate to the Lymph Nodes
    5.5.4. The Importance of Lymph Nodes for the Adaptive Immune Response
    5.5.5. Recognition Phase
    5.5.6. Activation Phase
    5.5.6. a) T Cell Activation
    5.5.6. b) B Cell Activation
    5.5.7. Effector Phase
    5.5.7. a) T Helper Cells
    5.5.7. b) Cytotoxic T Cells
    5.5.7. c) Plasma Cells
    III – Third Line of Defense: The Antibodies
    5.5.8. Types of Antibodies
    5.5.8. a) IgM – The First Antibody
    5.5.8. b) Class Switching (Isotype Switching) to IgG
    5.5.8. c) IgA – The Protective Barrier of Mucous Membranes
    5.5.8. d) Mucosal Immunity: Why IgG Is Unsuitable for This
    5.5.9. The Action Phase of Antibodies
    5.5.10. Regulatory T Cells and Their Role in the Immune System
    5.5.11. Switch-Off Phase
    5.5.12. Immunological Memory
    5.6. Summary
    6. Hidden Defense – The Power of Cross-Immunity
    7. Key takeaways
    8. Closing words


    1. A Look Beneath the Skin – A Journey Within

    The organism, the living body of a human being, is a fascinating construct that functions on multiple levels of organization. This organizational structure is the invisible bond that connects the cells, weaves the tissues, and shapes the organs.

    Fig. 1: The organism is the highest level of organization.

    To illustrate the complex interplay, let’s zoom in, starting with a look at the organ system level.

    Organism ➔ Organ systems

    Organ systems are essential units in the human body that combine structure and function. The most important organ systems include the cardiovascular system, the respiratory system, the digestive system, the nervous system, the endocrine system (hormone system), the immune system, the urinary system and the reproductive system. Each of these systems fulfils a unique function that contributes to the overall function of the organism.

    Fig. 2: Organization level: Organ systems

    The digestive system is responsible for the digestion and absorption of nutrients. The task of the respiratory system is to take in oxygen and remove carbon dioxide. The cardiovascular system moves blood around the body to transport nutrients and oxygen to the cells and remove waste products.

    An organ system consists of a single organ or a group of organs that are closely connected. When we zoom in closer, we can examine the individual organs.

    Organism ➔ Organ systems ➔ Organs

    Organs are important parts of the body that perform specific tasks. Each organ has its own distinct shape and function. The various organs work together like a well-coordinated team. Examples of organs include the heart, lungs, liver, and brain.

    Fig. 3: Organization level: Organs

    The heart pumps blood through the body, while the lungs are responsible for gas exchange. Among many other tasks, the brain controls breathing and the heartbeat. The stomach grinds and mixes food, the intestine extracts nutrients from food and the liver aids digestion and detoxifies.

    Organs are made up of different tissues that are closely connected and work together to support the function of the organ. When we zoom in even further, we see the tissues that make up the organ.

    Organism ➔ Organ systems ➔ Organs ➔ Tissues

    Different tissues in the body fulfil different tasks and are tailored to the needs of the organs they support. By working together, they enable a variety of physiological processes, including movement, sensory perception, digestion and immune defence.

    There are four main types of tissues in the human body: muscle tissue, connective tissue, epithelial tissue, and nervous tissue.

    Fig. 4: Organization level: Tissues

    To stay with the example of the heart, muscle tissue enables the pumping of blood throughout the body, while nervous tissue controls the electrical signals that regulate heart action. Connective tissue provides structural support and connects the different parts of the heart, while epithelial tissue lines and protects the inner surfaces of the heart.

    In the lungs, epithelial tissue facilitates gas exchange. Connective tissue supports the structure and connects the various tissue components. The smooth muscle tissue in the walls of the airways allows for the regulation of airflow. Finally, nervous tissue transmits signals to the brain to control the breathing movements.

    Tissues are made up of a variety of cells that come together to perform a specific task. When we zoom in even closer, we can recognize the individual cells.

    Organism ➔ Organ systems ➔ Organs ➔ Tissues ➔ Cells

    Cells are the fundamental building blocks of tissues. They are often specialized for specific functions within the tissue. They can have different shapes, sizes, and structures, adapted to their respective functions. For example, cells in muscle tissue are specialized for contraction, while cells in epithelial tissue are specialized for protection and absorption.

    Fig. 5: Organization level: Cells

    In addition to the specialized cells that perform specific tasks in the tissue, there is also a special type of cell: stem cells. Unlike other cells in the body, stem cells have the remarkable ability to transform into many different cell types. They are like the „blanks” of the body – not yet committed to a specific task and full of possibilities. When the body needs them, stem cells can become muscle cells, nerve cells, or immune system cells.

    Cells in tissues communicate and interact with each other via complex signalling pathways and molecules. This communication is crucial for the coordination of cell activities and the maintenance of the function of the tissue as a whole.

    A multitude of processes take place in every cell that are crucial for the growth, development, and survival of the organism. Cells are the fundamental building blocks of all living organisms. All life, from the smallest microorganisms to the largest animals, is made up of these tiny yet incredibly complex units. Each cell is an astonishing world of its own, filled with molecules and chemical reactions that make life possible.

    One could say: Life begins with the cell.


    2. The Cell – The Fundamental Building Block

    Life on our planet is a fascinating miracle that begins on a microscopic level in the cell. These tiny building blocks of life are the basis for all living things.

    A human being develops from two tiny cells – the egg cell and the sperm cell. In the first few weeks after fertilisation, the embryo undergoes a process in which it turns from a fertilised egg cell into a multitude of cells from which all organs and tissues are formed. By the time the embryo is called a foetus – usually from the eighth week of pregnancy – most of the organs and tissues have been created. From then on, development is mainly focussed on the growth and maturation of these structures. It is estimated that a newborn baby consists of about 20 to 30 trillion cells, while an average adult human has about 30 to 40 trillion cells. A study published in the journal PNAS categorises the human body into 60 tissue systems, 400 major cell types and 1264 separate cell groups.

    A brief and concise introduction to cell structure comes from the American digital communication agency Nucleus Medical Media. [Spektrum] It is intended to prepare us for the following explanations.

    Although the human body is made up of many different cell types, they all share a similar basic structure. Each cell is surrounded by a protective covering, the cell membrane. Inside the cell, in a gel-like substance called cytoplasm, there are many small, specialized structures known as organelles. One can think of these organelles as tiny machines or workshops within the cell, each performing a specific task.

    One of these important organelles is the nucleus. The nucleus acts like the control center of the cell – it contains the genetic information (DNA) and provides instructions to the other organelles on how to function. There is one exception: red blood cells. These cells are so specialized for their task that they no longer have a nucleus.

    Fig. 6: The (animal) cell

    Life, as we understand it, fundamentally requires three basic elements. First, a cell membrane that separates the interior of the cell from the external environment. Second, a metabolism is necessary to extract energy from the environment. And third, genetic information is needed to control and regulate vital processes. All living organisms are based on these three principles: cell membrane, metabolism, and information, which must come together to enable life. In this context, the information contained in DNA is the most essential ingredient for life. [Where does life come from? – a documentary in German language]

    Hidden in the depths of the cell lies DNA – the secret of life. It reveals itself as an impressive weave of molecules. These molecules carry the genetic code that determines the diversity and complexity of life. This is why DNA is often referred to as the book of life, as it contains the instructions for the development and functioning of every organism on our planet. By reading the DNA, proteins are produced, which are the actual executors of these instructions. Proteins shape structures, catalyze reactions, and transmit signals that enable life in all its forms. They are the building blocks of all living things and the tools that bring us to life.

    From cells to DNA to proteins – life is a breathtaking interplay of molecules and processes that give rise to an infinite variety of forms and functions. In every tiny particle that makes up life lies a deep fascination and an immeasurable wonder.


    3. Proteins – The Building Blocks of Life

    Proteins, which are created by reading the DNA, are the true architects of life. They perform a wide variety of essential functions in the body and are responsible for almost all biological processes. On one hand, proteins serve as structural building blocks and form the foundation for cells, tissues, and organs. They give cells their shape and strength, enabling them to carry out their functions properly.

    In addition, proteins are also involved in enzymatic reactions that drive metabolism and regulate vital chemical processes in the body. Furthermore, proteins serve as messengers, enabling communication between cells and tissues. For example, hormones are proteins that transmit important signals throughout the body and control a wide range of physiological responses.

    In addition to their structural, enzymatic, and signaling roles, proteins also contribute to immunity by acting as antibodies, protecting the body from diseases and infections. They recognize and bind to foreign substances such as bacteria and viruses, marking them for destruction by the immune system.

    Proteins account for up to 40% of the volume of the cytoplasm. So far, there is no exact figure for how many different proteins the human body can produce. Scientists estimate that there are about 20.000 different proteins in the human body, but some studies suggest that there could be even more. The following schematic representations of different proteins are taken from an animation by BioVisions at Harvard University. A real image of a protein can be seen here.

    Fig. 7: Schematic representation of proteins [BioVisions]

    But how and where are these all-rounders created?


    4. From Code to Protein – Cellular Mechanisms

    4.1. From Signals to Actions
    4.2. The Protein Biosynthesis
    4.2.1. Transcription
    4.2.2. Translation
    4.3. The Protein

    4.1. From Signals to Actions

    Amid the bustling activity within the cell, crucial processes take place that sustain and enable life. One such process is protein synthesis, the building blocks of life. This complex task requires precise coordination and involves a series of steps that occur harmoniously within the cell. These cellular processes are regulated and orchestrated by the cell’s regulatory system.

    The regulatory system detects external signals or changes within the cell to determine when there is a need for specific proteins. To produce the required proteins, the regulatory system activates so-called transcription factors. These transcription factors can be viewed as a type of production assistants, of which there is a great variety within the cell – estimated to be in the thousands. Each of them has specific permissions and a precise task to carry out. Transcription factors themselves are regulatory proteins.

    Activated specific transcription factors now make their way to the nucleus, the location where the book of life – DNA – is found. This book contains all the information about the proteins that the cell can produce, encoded in thousands of genes. Therefore, it is a very precious book because without the book of life, the cell does not know how to produce the proteins. And without proteins, the cell cannot exist. The book of life is kept in a secure place, the nucleus, to ensure it is not damaged. You can imagine this secure location as a vault that can only be accessed with a valid access code.

    Fig. 8: DNA is located in the nucleus.

    The nuclear membrane is the security barrier that surrounds the nucleus. It contains tiny nuclear pores that act as gatekeepers. This allows the nucleus to control who can enter or exit. Only those who can identify themselves and present the appropriate recognition signal are allowed to pass through the nuclear pores. [„Rush hour” at the nucleus, „How wriggling tentacles protect our genetic material.”]

    Fig. 9: Activated transcription factors on their way into the nucleus

    The activated transcription factors can pass through the nuclear pores and carry out their tasks in the nucleus. There, they specifically search for particular DNA sequences near the starting point of the target gene, known as the promoter. These DNA sequences serve as anchor points where the transcription factors can bind to activate (or suppress) the transcription of the corresponding genes. By binding the transcription factors to these specific sites, RNA polymerase is attracted, thereby initiating the process of protein biosynthesis.

    Fig. 10: Activated transcription factors bind to the promoter region of the target gene.

    4.2. The Protein Biosynthesis

    The process of protein production is called protein biosynthesis and it takes place in two sub-steps, transcription and translation.

    4.2.1. Transcription

    The process of converting DNA into RNA is called transcription. An enzyme, RNA polymerase, is responsible for the production of RNA. An enzyme is a protein that accelerates biochemical reactions in the body.

    Once the transcription factors have bound to the promoter, they act as a platform or anchor point for the RNA polymerase. It places itself on the transcription factors or in their immediate vicinity and initiates the process.

    Fig. 11: RNA polymerase attaches itself to the transcription factors.

    This begins with the unwinding of the DNA double helix, making the DNA sequence accessible. RNA polymerase moves along the DNA sequence and reads it.

    Fig. 12: Transcription

    During this process, RNA polymerase synthesizes an RNA strand using RNA nucleotides, the building blocks of RNA. The polymerase forms complementary base pairs between the RNA nucleotides and the bases of the DNA sequence. In this pairing, adenine (A) pairs with uracil (U), and cytosine (C) pairs with guanine (G). The difference from DNA is that in the RNA copy, the base thymine (T) is replaced by the base uracil (U), which is a characteristic feature of RNA.

    Once a reading step is completed, RNA polymerase closes the DNA behind it. The reading process ends at the terminator, the section at the end of the target gene. The produced RNA and the polymerase then detach from the DNA. In this process, the DNA, the „precious book of life”, remains unchanged and undamaged.

    The resulting RNA is a copy of the original DNA code.

    Fig. 13: RNA is a copy of DNA.

    The RNA that is directly produced from transcription is called pre-mRNA and must undergo further processing steps to become mature mRNA, which is ready for translation. This processing includes splicing, where introns (non-coding regions of a gene) are removed and exons (coding regions of a gene) are joined together.

    Introns and exons are not constant but variable, and they play an important role in gene regulation and diversity. This means that depending on the type of protein that needs to be produced, different exons can be combined and introns removed. Through this process, cells can produce a variety of proteins that perform different functions.

    Additionally, a 5′-cap is added to the 5′-end of the mRNA, and a poly-A tail (a series of adenine nucleotides) is added to the 3′-end.

    Fig. 14: Modification of pre-mRNA into mature mRNA

    The mature mRNA, which contains the genetic blueprint for the protein to be produced, diffuses through the nuclear pores into the cytoplasm of the cell, where it is recognized by the ribosomes. This initiates the next step – translation.

    Fig. 15: The mRNA leaves the nucleus.

    Biotech Made Easy offers a short visualisation of the transcription process, which makes the process easy to understand.

    Original source: Biotech made easy (as of August 2024)

    Another short animation of the transcription comes from the DNA Learning Centre. It shows the process in real time.

    4.2.2. Translation

    Translation is the process by which the genetic information stored in the mRNA is converted into a sequence of linked amino acids to form proteins. This important transformation takes place at the ribosomes, the protein factories of the cell. The ribosomes act as machines that read the mRNA and arrange the amino acids according to the instructions of the mRNA.

    In eukaryotes like humans, two types of ribosomes are distinguished: free ribosomes and bound ribosomes (see Fig. 15). A significant portion of the ribosomes is found freely in the cytoplasm, while others are bound to the membrane of the endoplasmic reticulum (ER). The ribosomes attached to the ER produce proteins that are either intended for export from the cell or for incorporation into the cell membrane. Both free and membrane-bound ribosomes have a similar structure and function. For our further consideration, we will focus on the free ribosomes.

    The ribosome binds to the mRNA and then moves along the mRNA sequence from the 5′ end to the 3′ end. During this process, the mRNA slides through the ribosome like a conveyor belt and is scanned step by step. Three consecutive bases, known as codons, are read at a time. When the ribosome reaches the start codon (AUG), translation begins.

    During translation, the ribosome reads each codon on the mRNA and assigns it a corresponding transfer RNA (tRNA) with the appropriate amino acid. The tRNA carries a specific sequence of three nucleotides, known as an anticodon, which is complementary to the codon of the mRNA.

    Fig. 16: The ribosome moves along the mRNA, reading codons to which complementary tRNAs carrying amino acids bind. These tRNAs supply the appropriate amino acids for the growing polypeptide chain.

    When the anticodon of a tRNA pairs with the corresponding codon of the mRNA, the amino acid carried by that tRNA is linked to the growing peptide chain. Peptides are short chains of amino acids, and these amino acids are the building blocks of proteins. This process repeats as the ribosome moves along the mRNA, scanning each codon.

    The amino acids that are linked together are connected by peptide bonds, forming the peptide chain of the emerging protein. Translation ends when the ribosome reaches a stop codon (UAA, UAG, or UGA) on the mRNA. At this point, the newly formed peptide chain – the unfinished protein – is released, and the ribosome detaches from the mRNA.

    Fig. 17: The ribosome forms a peptide chain.

    Here, too, there is a brief and clear visualisation of the Biotech Made Easy translation process.

    Original source: Biotech made easy (as of August 2024)

    4.3. The Protein

    The protein initially exists as a chain of a specific sequence of amino acids. For the newly synthesized protein to become functional, it must fold into the correct three-dimensional shape. The spatial arrangement of the amino acid chain – its specific three-dimensional form – is crucial for the protein to fulfill its role in the body, whether as an enzyme (a molecule that accelerates chemical reactions), a structural protein (which gives cells and tissues their shape and strength), or a hormone (a signaling molecule that regulates various bodily functions).

    Every protein has its own blueprint that determines how it will fold to fulfill its function. The amino acid chain forms the primary structure, from which repeating patterns arise, referred to as the secondary structure. Electrostatic attractions and other chemical bonds then bring different parts of the protein together, resulting in its final shape – the tertiary structure. Sometimes, multiple proteins even form complex structures known as quaternary structures.

    Fig. 18: Schematic representation of the primary, secondary, tertiary and quaternary structure of proteins.

    The path to proper folding is not always straightforward. Sometimes proteins can misfold, especially when they are too close to each other. In these moments, helpers come into play – the chaperones, which are proteins themselves. They protect the peptide chain from unwanted interactions and facilitate the folding process.

    However, some proteins are too large to fold on their own. Here again, chaperones come into play, guiding the proteins to another helper – a cylindrical structure called a chaperonin. In this secure environment, proteins can fold undisturbed. The fully folded proteins are now ready to begin their work inside or outside the cell.

    The video „Chaperones – Protein Folding” illustrates the process of protein folding in an engaging way.

    Errors in protein folding

    The process of protein folding is crucial for the biological functionality of the cell and is carefully regulated. A misfolded protein can lose its normal function or even become harmful. Errors in protein folding can have serious impacts on cellular processes and lead to various diseases. Examples include Amyloidosis, Alzheimer’s disease, Parkinson’s disease, and Huntington’s disease.

    The „Protein Folding Problem”

    The „protein folding problem” is one of the central puzzles of biology. It refers to the difficulty of predicting the three-dimensional structure of a protein based on the sequence of its amino acids. Proteins are made up of hundreds of amino acids that fold into complex spatial structures, and the DNA sequence alone does not provide direct information about this structure. The challenge of protein structure prediction lies in inferring the spatial arrangement of the amino acids from the genetic information. The magnitude of this challenge becomes apparent when considering that the number of theoretical possibilities for how a protein could fold before achieving its final 3D structure is enormous.

    Scientists from various disciplines have been working on solving this puzzle for more than 50 years. A groundbreaking development in this field is the creation of ‚AlphaFold‚ by Deepmind, an AI that handles protein structure prediction with unprecedented accuracy. This achievement could revolutionise the understanding of protein folding.

    Nevertheless, the exact process of protein folding is still not fully understood and remains a current area of research in biochemistry.

    Proteins: Their Lifespan and Regeneration

    Like any product, a protein has a limited lifespan. Once a protein has fulfilled its function or is damaged, it is broken down. This continuous process occurs in all cells of the body.

    A specialized enzyme called the proteasome is involved in this process. The proteasome cuts the protein into smaller fragments (peptides), which are then further broken down into individual amino acids. These amino acids can be reused to produce new proteins. This ensures that faulty or no longer required proteins are removed and the cell’s resources are utilised efficiently.

    Source: Myeloma UK

    Protein degradation and its connection to the immune system

    The degradation of proteins is an essential process that has far-reaching effects on various systems in the body, including the immune system. The specific role this process plays in the immune system will be discussed in more detail in the following chapters.


    5. The Body’s Shield – Our Immune System

    Our immune system is the impressive legacy of evolution. It is a fascinating micro-world that works in secret – an army of immune cells that have developed into masterpieces of adaptation over millions of years. These tiny fighters stand ready day and night to protect us from the countless threats that we often don’t even realise are there. They watch over us while we sleep, fight for us without us realising it, and are ultimately the reason why we can live and breathe.

    To ensure survival, all higher organisms have developed an immune system that fends off pathogens, prevents infections, or contains them. The immune system is composed of a variety of cells, tissues, and organs that work together to protect the body.

    The key components include white blood cells (leukocytes), which come in various forms and have different functions, as well as lymphatic organs such as the bone marrow, thymus gland, spleen, tonsils, and lymph nodes.

    Fig. 19: Components of the immune system

    In addition, the immune system has its own transport network, the lymphatic system, which carries lymph (a watery, slightly milky fluid) and immune cells through lymphatic vessels across the body, enabling them to quickly reach and combat infection sites.

    The interaction between immune cells is highly complex and will be simplified here. Although this presentation is already quite challenging, the actual processes in the body are even more intricate and not yet fully understood. To make this easier to grasp, we will focus on the key immune cells and their most important processes.

    5.1. Origin of Immune Cells
    5.2. Mechanisms of Immune Recognition: SELF vs. NON-SELF
    5.3. The Nonspecific Immune Defense
    5.4. The Complement System
    5.5. The Specific Immune Defense
    5.6. Summary

    The basic principle of the immune system is based on distinguishing between NON-SELF and SELF, a mechanism that is present from birth.

    To defend itself against invaders, the body must be able to differentiate between foreign microorganisms and its own tissue. Not everything foreign is dangerous, so the immune system also needs to distinguish between harmless foreign substances (such as dust, pollen, or food) and harmful ones. Anything that causes illness is considered dangerous to the body, meaning it is pathogenic. The term pathogens encompasses all foreign entities that can cause disease. Pathogens include bacteria, viruses, fungi, and parasites.

    The immune system recognizes so-called antigens based on the structures on the surface of pathogens or other foreign substances. The term ‚antigen‘ means ‚antibody generating‘. These antigens are typically proteins or polysaccharides and serve as „recognition markers” that signal to the immune system that a foreign body is present.

    The immune system’s response to anything NONSELF is an immune response. It involves a variety of processes aimed at eliminating the threat of foreign substances and maintaining the integrity of the body.

    The right balance between tolerance and defence reaction as well as the strength of the reaction are a real challenge for the immune system. This only works if the individual components of the immune system work together harmoniously.

    Throughout evolution, coordinated defense systems have developed to work together. In general, there is a distinction between the innate (nonspecific) and adaptive (specific) immune defenses. The innate immune system is the body’s first line of defense against pathogens. Specialized immune cells respond to threats based on a pre-programmed response. In contrast, the adaptive immune system is highly specialized and targets specific pathogens with precision, recognizing and eliminating them in a targeted manner.

    Before we dive deeper into the immune defense, let’s take a look at the origin of immune cells and the mechanisms the immune system uses to differentiate between foreign and self-cells. In this context, key terms and concepts will be introduced, which will be repeatedly referenced throughout the discussion.

    5.1. Origin of Immune Cells

    Blood cells and immune cells originate from hematopoietic stem cells in the bone marrow. These stem cells are the common source for both blood cells and immune cells, as immune cells are an essential part of the blood. The differentiation of these stem cells follows either the myeloid or lymphoid lineage, leading to the development of various cells involved in both the innate (nonspecific) and adaptive (specific) immune systems.

    In adults, blood formation (hematopoiesis) primarily occurs in the bones of the pelvis, sternum, ribs, and parts of the spine. These bones contain red bone marrow, which houses the stem cells that give rise to both blood and immune cells. In children, blood formation also takes place in the long bones of the arms and legs, such as the femur and humerus. As individuals age, this bone marrow is gradually replaced by fat-rich yellow bone marrow, causing blood formation to become mainly concentrated in the pelvis and spine.

    Fig. 19-A: All blood cells and immune cells develop from haematopoietic stem cells in the bone marrow.

    As shown in the illustration, immune cells develop from two main lineages:

    Myeloid Lineage
    This line leads to the formation of cells of the innate immune system, including:

    • Neutrophil granulocytes
    • Eosinophil granulocytes
    • Basophil granulocytes
    • Mast cells
    • Monocytes (which develop into macrophages and dendritic cells)

    Lymphoid Lineage
    This line forms the cells of the adaptive immune system:

    • T lymphocytes
    • B lymphocytes

    Natural killer cells also originate from the lymphoid lineage but are part of the innate immune system.

    5.2. Mechanisms of Immune Recognition:
    SELF vs. NON-SELF

    The distinction between SELF and NON-SELF is primarily made by specialized immune cells that specifically scan the surfaces of cells – both those of the body and of pathogens. Since cells neither have eyes nor ears, they must make contact to determine whether a protein belongs to a friend or foe. For this purpose, they are equipped with a variety of receptors.

    Body cells carry so-called SELF markers on their surface. These markers are specific molecules or receptors that are recognized by the immune system and are typically not attacked.

    Pathogens, on the other hand, possess specific structures on their surface that are not present on the body’s own cells. Similarly, mutated or damaged cells reveal themselves through changes on their surface. These structures can be interpreted as NON-SELF markers, prompting the immune system to trigger a defensive response.

    Fig. 20:  The immune system distinguishes between SELF and NON-SELF.

    But how do immune cells communicate with each other to ensure a coordinated response to threats? The answer lies in signaling molecules called cytokines and chemokines.

    Cytokines are small proteins that act like signaling beacons, controlling the behavior of immune cells. They regulate the growth, activation, and function of immune cells and play a crucial role in managing inflammatory responses. Depending on the situation, they can either amplify or dampen the immune response.

    Chemokines, on the other hand, direct the movement of immune cells throughout the body. They act as navigators, guiding immune cells to the site of infection or inflammation. In this way, they ensure that the body’s defenses are activated precisely where they are needed.

    SELF-Marker

    SELF-markers, also known as autoantigens, serve as identifiers for the body’s own tissues. During its development, the immune system learns to recognize and tolerate these markers in order to avoid autoimmune reactions. The immune system has several mechanisms in place to achieve this, with three important ones highlighted here:

    a) SELF-Marker: MHC Molecules
    b) SELF-Marker: CD47 Molecule
    c) SELF-Marker: Sialic Acid
    a) SELF-Marker: MHC Molecules

    An important example of SELF-markers are MHC molecules. The term MHC stands for Major Histocompatibility Complex and refers to special proteins on the cell surface that function as receptors. These receptors primarily present the body’s own protein fragments. By doing so, the cell signals to the immune system that it belongs to the body and does not pose a threat.

    However, MHC molecules can also present foreign protein fragments. These usually come from pathogens or diseased cells, such as cells infected by viruses. By displaying such foreign fragments on the cell surface, the immune system can recognize infected or abnormal cells and initiate an appropriate defense response.

    Major indicates the significant importance of these genes for immune recognition.
    Histocompatibility is composed of ‚histo‘ (tissue) and ‚compatibility‘, referring to how well tissues are compatible or acceptable between different individuals. MHC plays a crucial role in organ transplantation.
    Complex refers to the group of genes that work together to perform a complex function.

    There are two main classes of MHC molecules:

    MHC class I molecules are found on almost all nucleated cells in the body.
    MHC class II molecules are mainly found on specific immune cells.

    The following simplified graphic illustrates the difference between the two classes. Both MHC class I and MHC class II molecules are anchored in the cell membrane and present protein fragments (peptides) that serve as antigens. A structural difference is that MHC class I molecules have a single anchoring point in the cell membrane, while MHC class II molecules have two anchoring points.

    In general, MHC complexes serve the purpose of antigen presentation by providing the immune system with information about the state of the cell.

    Fig. 21:  MHC Molecules

    Antigen presentation

    MHC-I presents antigens that originate from inside the cell. As mentioned in section ‚4.3. The protein‘, cells continuously degrade old or damaged proteins. In the process, proteasomes break down these proteins into smaller fragments, so-called peptides. These peptides can originate from the body’s own proteins and signal to the immune system that the cell is healthy. However, if the cell is infected with a virus or otherwise becomes abnormal, the MHC-I molecule presents peptides from foreign or altered proteins. This alerts the immune system that the cell is potentially dangerous and needs to be eliminated.

    MHC class I molecules are expressed by all nucleated cells.

    Fig. 22:  MHC class I molecule

    On the left is a healthy cell presenting its own normal peptide via an MHC class I molecule. This indicates that the cell is healthy and not infected. The MHC-I molecule signals to the immune system that no action is needed. In the middle is a virus-infected cell, which also carries an MHC class I molecule but presents a foreign peptide derived from a virus. This viral peptide alerts the immune system that the cell is infected, potentially triggering an immune response. On the right is a cancer cell that presents a modified peptide through an MHC class I molecule. This peptide has been altered due to genetic mutations occurring during cancer development. It signals to the immune system that the cell is abnormal and should be removed.

    MHC class II, on the other hand, presents antigens that originate from outside the cell. MHC-II molecules are expressed only by specialized immune cells, such as macrophages, dendritic cells, and B cells. These cells engulf foreign material, such as bacteria or other pathogens, break it down into smaller fragments (antigens), and then present these on their cell surface. The antigens presented in this way activate specific immune cells that coordinate a targeted immune response.

    Fig. 23: MHC classe II molecules

    MHC molecules enable the immune system to differentiate between the body’s own cells and foreign or altered cells. This is crucial for protecting healthy cells and at the same time triggering an immune response against potentially harmful invaders or abnormal cells.

    The short animation on antigen presentation: MHC class I vs. MHC class II illustrates the relationships explained above.

    b) SELF-Marker: CD47 Molecule

    Another important SELF-marker on the surface of cells is the molecule CD47. This molecule acts as a ‚Don’t eat me‘ signal, meaning it prevents immune cells from destroying the cell.

    CD47 plays a crucial role in the regulation of the immune response and the protection of blood cells. In contrast to MHC class I molecules, which are only found on nucleated cells, CD47 is found on all cell types, including nucleus-free cells such as erythrocytes (red blood cells) and thrombocytes (platelets).

    CD47 binds to a receptor protein called SIRPα (Signal Regulatory Protein Alpha), which is present on the surface of immune cells. This binding sends a signal that prevents the immune cell from attacking the cell. This ensures that healthy, self-cells are not destroyed by the immune system.

    Fig. 24: An erythrocyte signals to the immune cell via CD47: Don’t-eat-me.

    If the CD47 marker is missing or not functioning properly, the cell can be recognized as „foreign” or „altered”. This leads immune cells to attack and eliminate these cells.

    Fig. 25: No Don’t-eat-me signal without CD47. When erythrocytes age and lose CD47, they are recognised and degraded by macrophages.

    CD47 molecules do not differ as much from person to person as MHC class I molecules do. They have a relatively conserved structure in most individuals, meaning there are fewer variations. This conservation is important because CD47 plays a fundamental role in immune regulation and cell interaction.

    For this reason, a blood transfusion generally works more smoothly than an organ transplant. In a blood transfusion, only a few antigens (such as blood group characteristics) need to be considered, while in an organ transplant, there is a high variability in MHC class I molecules, which can trigger a strong immune response.

    c) SELF-Marker: Sialic Acid

    Another significant SELF-marker on the cell surface is sialic acid. Sialic acids are a group of sugar molecules found on the surfaces of cells and play an important role in cell-to-cell communication. All of the body’s own cells carry sialic acid on their surface.

    Special receptors on the surface of immune cells can recognize and bind to sialic acids. These sialic acid-binding receptors are known as Siglecs (sialic acid-binding immunoglobulin-type lectins). When sialic acids bind to Siglecs, they send inhibitory signals into the immune cell, preventing it from attacking the cell. This mechanism protects the body’s own cells from attacks by the immune system.

    Fig. 26: Siglec receptor of the immune cell binds to the sialic acid of the body’s own cell.

    Combination of these SELF-markers

    A cell can carry MHC molecules, CD47, and sialic acid simultaneously on its surface. Each of these molecular groups serves an important function in marking the cell as self and protecting it from unnecessary immune responses. While MHC primarily serves the purpose of antigen presentation, CD47 and sialic acid ensure that cells are not attacked or eliminated by immune cells. Thus, these markers work together to efficiently regulate the immune system.

    5.3. The Nonspecific Immune Defense

    Our immune system continuously monitors the body for the presence of foreign substances and cell changes. As soon as something is recognized as a threat, the defense response is initiated. The nonspecific immune response is particularly fast, becoming fully activated within minutes to a few hours.

    This form of immune defense is not specialized for specific pathogens. „Nonspecific” means that a general standard response occurs to every recognized threat; pathogens are fought in the same way regardless of their type. The nonspecific immune system is present at birth, which is why it is also referred to as the natural or innate immune system. In the first step, the organism attempts to prevent or at least hinder the invasion of pathogens.

    I – First Line of Defense: Mechanical and Chemical Barriers
    II – Second Line of Defense: White Blood Cells
    5.3. a) Granulocytes
    5.3. b) Macrophages
    5.3. c) Dendritic Cells
    5.3. d) Natural Killer Cells
     I – First Line of Defense: Mechanical and Chemical Barriers 

    The first line of defense in our body against pathogens consists of mechanical and chemical barriers.

    Mechanical barriers

    Mechanical barriers include the skin and all mucous membranes. The skin, the boundary between the inside of the body and the outside environment, is our body’s most important defence against pathogens. It consists of several layers that prevent the penetration of pathogens. The outermost layer, the epidermis, renews itself regularly. Dead skin cells are constantly shed and replaced by new cells. This renewal process helps to remove microorganisms adhering to the skin.

    Mucous membranes are found in many areas of our body, including the nose, mouth, throat, lungs and digestive tract. They produce mucus, a sticky substance that traps and removes pathogens. For example, the mucus in our nose traps dust and microorganisms that we breathe in, preventing them from entering our lungs.

    Fig. 27:  Mucous membrane of the respiratory tract

    Mucosal cells have many cilia, which lie next to each other like a dense lawn. Goblet cells constantly produce mucus that surrounds the cilia and covers the surface of the mucous membrane. Foreign particles such as viruses, bacteria or dust easily become trapped in this viscous layer of mucus.

    The cilia move in a wave-like manner to transport foreign particles trapped in the mucus out of the airways. Similar to a conveyor belt, the cilia push the mucus layer, along with the foreign bodies, towards the throat. There, the secretions can be expelled through sneezing or coughing, or swallowed. This self-cleaning mechanism is constantly active, ensuring that the respiratory tract remains clear of harmful substances and pathogens.

    Chemical barriers

    In addition, chemical substances such as acids, enzymes, or mucus hinder the attachment of pathogens. Certain areas of our body, such as the skin and the stomach, have an acidic environment. This acidic milieu is unfavorable for many microorganisms and can inhibit their growth or kill them. Particularly in the acidic environment of the stomach, many pathogens are rendered harmless.

    Enzymes are proteins that catalyze chemical reactions. Some enzymes in our body, such as lysozyme found in our saliva and tears, can break down bacterial cell walls, thus killing them. As mentioned earlier, our mucous membranes produce mucus that traps pathogens. However, mucus also serves as a chemical barrier. It contains antimicrobial substances such as immunoglobulins, which can neutralize pathogens.

    Although the mechanical and chemical barriers of our body are highly effective in preventing the entry of pathogens, some pathogens can still overcome these barriers. Once pathogens have breached these initial defenses, our body activates another line of defense.

     II – Second Line of Defense: White Blood Cells 

    If the pathogens manage to overcome the first line of defence and enter the body, they do not go unnoticed for long. Specialised immune cells such as granulocytes, macrophages, dendritic cells and natural killer cells are ready to defend the body. These cells belong to the white blood cells, the leukocytes.

    Granulocytes, monocytes, and natural killer cells circulate in the blood and migrate into tissues when needed. When monocytes enter the tissues, they develop into macrophages or dendritic cells, which then reside in the tissue and carry out their immune functions.

    Fig. 28:  Leukocytes in the blood and tissue
    5.3. a) Granulocytes

    Granulocytes are a subgroup of white blood cells distinguished by their characteristic granules – small, grain-like structures in the cytoplasm. These granules contain various substances that are released during immune defense and other processes. The granulocytes include neutrophils, eosinophils, and basophils, each of which plays distinct roles in the immune system, particularly in fighting infections and managing allergic reactions. In this description, we will focus on neutrophils, as they make up 50-70% of leukocytes in human blood, making them the most abundant immune cells.

    Neutrophils, also known as neutrophil granulocytes, continuously circulate in the bloodstream and are among the first immune cells to respond to an infection. When pathogens invade the body, chemotactic signals are released, attracting neutrophils to the site of infection. In response, they exit the bloodstream and migrate into the tissue, where they can reach the infection site within minutes.

    Fig. 29:  Neutrophil granulocytes migrate to the site of infection.

    On-site, neutrophils identify pathogens using their pattern recognition receptors (PRRs), which detect specific pathogen-associated molecular patterns (PAMPs) present on invaders like bacteria, viruses, and fungi. Their PRRs also recognize damage-associated molecular patterns (DAMPs), which are released by damaged or stressed cells. This dual recognition allows neutrophils to respond not only to invading pathogens but also to cellular damage within the body.

    Fig. 30: Neutrophil granulocyte binds to a bacteria.

    Neutrophil granulocytes eliminate intruders or diseased cells by engulfing and destroying them. They encapsulate the pathogen in a membrane-bound vesicle called a phagosome. After ingestion, the granules of the neutrophils fuse with the phagosome. These granules contain enzymes and antimicrobial substances that degrade and kill the enclosed pathogen. The remaining breakdown products that cannot be reused are then released from the neutrophils. These remnants can be taken up and further processed by other immune cells, such as macrophages.

    Fig. 31: Phagocytosis: Neutrophil granulocyte engulfs and digests bacteria.

    In addition, neutrophils also eliminate damaged tissue cells. This entire process, in which cells engulf and degrade foreign bodies and damaged cells, is referred to as phagocytosis.

    The term phagocytosis originates from Greek and consists of two parts: phagein, meaning „to eat” or „to engulf”, and kytos, meaning „cell” or „container”. Thus, the term „phagocytosis” literally describes „cell-eating” or „engulfing by cells”. For this reason, cells that perform this function are also referred to as phagocytes.

    Neutrophils have a relatively short lifespan and often die after phagocytosis and digestion of pathogens. This process, called apoptosis (programmed cell death), helps to regulate the inflammatory response.

    When many neutrophils die in an infected area, their remains accumulate along with the digested pathogens and cellular debris. This accumulation of dead cells and degradation products forms pus. Pus is a viscous, yellowish or greenish fluid that is often found in infected wounds or abscesses. Apoptotic (dead) neutrophils are also absorbed and digested by macrophages, cleansing the surrounding tissue and promoting healing.

    In some cases, neutrophils release net-like structures consisting of DNA and antimicrobial proteins. These NETs (Neutrophil Extracellular Traps) trap pathogens and kill them by preventing their movement and replication.

    Fig. 32: Neutrophil granulocyte releases ‚Neutrophil Extracellular Traps‘ (NETs) and then dissolves.

    This short animated video shows very nicely how neutrophils work.

    Neutrophils work closely with other immune cells such as macrophages and dendritic cells by releasing signalling molecules. These signalling molecules, such as chemokines and cytokines, recruit and activate other immune cells to the site of infection. Neutrophils thus make a significant contribution to the inflammatory response. Their rapid response and ability to effectively combat pathogens makes them a crucial component of the innate immune response.

    5.3. b) Macrophages

    Macrophages are large phagocytic cells, with their name derived from the Greek word ‚macro‘ meaning large and ‚phage‘ meaning eater. There are different types of macrophages.

    Resident macrophages are firmly anchored in the tissues. Recruited macrophages arise from the monocytes circulating in the blood. When monocytes come into contact with cytokines (signaling molecules), they migrate from the blood into the tissue and differentiate into macrophages there. Once in the tissue, they often remain stationary while patrolling for pathogens and dead cells.

    Fig. 33: Recruited macrophages

    Macrophages recognize pathogens through specific proteins on their surface called pathogen-associated molecular patterns (PAMPs). These surface proteins of pathogens fit into the pattern recognition receptors (PRRs) of macrophages like a key fits into a lock. Similarly, cell debris or dead cells produce specific „eat-me” signals, which are recognized by macrophages in the same way. Once the pathogen or cell debris is identified, the macrophage binds to it, envelops it with its flexible membrane, and initiates phagocytosis.

    Fig. 34: A macrophage recognises, binds and surrounds a pathogen for destruction.

    During phagocytosis, the macrophage absorbs the pathogen or cell debris by invagination and forms a membrane-enveloped vesicle, the phagosome. This phagosome fuses with a lysosome to form a phagolysome. In the phagolysome, the ingested particles are broken down by the digestive enzymes of the lysosome. Here you can see macrophages in action.

    Fig. 35: During phagocytosis, the pathogen is enclosed in a membrane-enveloped vesicle, the phagosome (1). The phagosome fuses with the lysosome (2), which contains digestive enzymes. In the resulting phagolysosome (3), the pathogen is broken down by the digestive enzymes.

    Phagocytosis is an ancient mechanism dating back to unicellular eukaryotes such as amoebae and provides a vivid example of how the immune system has evolved over millions of years.

    Macrophages mainly concentrate on „eating” pathogens and „cleaning up” cell debris. However, this also gives rise to the possibility of antigen presentation.

    During degradation, smaller fragments are released, including potential antigens, which are bound to MHC class II molecules and presented on the cell surface. This antigen presentation is crucial for the activation of other immune cells, especially T cells. The antigen-MHC II complexes are presented to the T cells, which then initiate the specific immune response – a process that we will discuss in more detail in the following sections.

    Fig. 36: After digesting the pathogen, waste materials are expelled from the macrophage through exocytosis, a process where unwanted substances are packaged into vesicles and transported out of the cell. At the same time, some of the resulting antigen fragments bind to MHC class II molecules and are transported to the cell surface. Here, other immune cells can recognize the antigen-MHC-II complexes and initiate a specific immune response.

    Many other smaller molecules produced by the digestive process, such as amino acids, sugars and lipids, can be re-utilised by the macrophage as nutrients.

    Other waste products and indigestible residues are packed into vesicles and excreted from the cell. This prevents the accumulation of waste within the macrophage and allows it to continue working. Some of the indigestible residues can ultimately be removed via various excretory processes of the body, such as urine, faeces or sweating. This occurs after further degradation and transport through the lymphatic system or the bloodstream to the corresponding organs such as the kidneys or intestines.

    Macrophages are very efficient phagocytes and can ingest and degrade a large number of pathogens and cellular waste. Within a few hours, one macrophage can phagocytise hundreds of bacteria.

    As not just one pathogen usually invades the body, macrophages call on other immune cells for help. To do this, they secrete cytokines that strengthen the immune response.

    Cytokines cause the blood vessels around the site of infection to dilate, leading to increased blood flow. This enhanced circulation allows more immune cells, oxygen, and nutrients to reach the affected area. As a result, swelling (edema) occurs in the tissue, which also explains the redness and warmth often associated with inflammation.

    Fig. 37: Other immune cells are attracted to the site of infection through cytokines.

    As the immune response progresses, macrophages initiate the healing process by releasing growth factors that promote cell division and differentiation.

    Macrophages play a central role in the immediate immune defense. Their primary tasks are fighting and eliminating pathogens, as well as clearing cellular debris through phagocytosis. To accomplish this, macrophages possess around 60 different types of receptors, enabling them to recognize a wide variety of pathogens. Additionally, they perform antigen presentation to support the specific immune response, though this is more of a supplementary function. In contrast, dendritic cells are more specialized in collecting and presenting antigens, with their primary role being the activation of the adaptive immune response.

    5.3. c) Dendritic Cells

    Dendritic cells are specialised immune cells that play a key role in triggering the specific immune response. The name is derived from their numerous, branched projections, which are reminiscent of the dendrites of nerve cells.

    Dendritic cells originate from precursor cells in the bone marrow and further differentiate in tissues. They are found in almost all tissues of the body, especially at the interfaces with the external environment, such as the skin, respiratory tract, and gastrointestinal tract, where they continuously search for antigens. In tissues, they can develop into different subtypes, each of which has specific roles in recognizing and presenting antigens.

    Dendritic cells recognise pathogens and foreign substances through special receptors on their surface, the so-called pattern recognition receptors (PRRs). These receptors bind to characteristic molecular patterns on the pathogens, which are known as pathogen-associated molecular patterns (PAMPs). Damaged or dead cells also send out specific „eat-me” signals that are recognised by the dendritic cells.

    Fig. 38: The dendritic cell recognises the pathogen via special pattern recognition receptors and binds it. The cell membrane then invaginates at the binding site and completely encloses the pathogen so that it is taken up by the dendritic cell.

    As soon as dendritic cells have taken up pathogens or cell debris, they undergo a maturation process. This process begins with the PRRs recognising the PAMPs on the pathogens. After this recognition, the dendritic cells phagocytose the pathogens or cell debris and enclose them in a membrane-enveloped vesicle, the phagosome. Within the phagosome, the ingested materials are broken down by digestive enzymes.

    During this degradation, smaller fragments called antigens are produced. These antigens are then bound to MHC class II molecules and presented on the cell surface.

    Fig. 39: During phagocytosis, a membrane-enveloped vesicle, the phagosome (1), is formed. This fuses with a lysosome (2), which contains digestive enzymes that degrade the pathogen. The resulting phagolysosome (3) produces smaller fragments, including potential antigens. These antigens are bound to MHC class II molecules and presented on the cell surface.

    Following the uptake and processing of antigens, dendritic cells migrate to the nearest lymph nodes, where they present the antigens to the T cells and thus initiate the activation of the specific immune response.

    Although dendritic cells also play an important role as phagocytes in the innate immune defence, their main function as antigen-presenting cells (APCs) is to activate the specific immune defence. We will therefore deal with their role as APCs in detail in the chapter ‚The specific immune defence‘.

    In addition to activating the specific immune response, dendritic cells can also have a regulatory effect. Depending on the context and the signals received, they can take on both immunostimulatory and immunosuppressive functions and thus contribute to the fine-tuning of immune responses.

    5.3. d) Natural Killer Cells

    Natural killer cells (NK cells) are a type of lymphocyte that belongs to the leukocytes (white blood cells). They develop from lymphoid stem cells in the bone marrow and are an essential component of the innate immune response.

    NK cells circulate in the blood and are tasked with inducing apoptosis (programmed cell death) in specific cells, particularly virus-infected cells and tumor cells. Their presence in the bloodstream allows them to rapidly respond to infections and migrate into different tissues when a threat arises. NK cells are also found in various tissues and organs throughout the body, particularly in the spleen, liver, lymph nodes, and lungs.

    Although NK cells do not need to be activated, their activity is enhanced by cytokines. Unlike other immune cells, they do not possess specific receptors for foreign antigens. Instead, they use a variety of receptors, which are divided into two categories: activating and inhibitory receptors.

    Inhibitory receptors recognize MHC class I molecules, which are normally present on the surface of all nucleated cells and serve as SELF-markers for the immune system. The binding of inhibitory receptors occurs independently of the peptides presented on the MHC class I molecule; the NK cell does not directly recognize the peptides but rather the MHC class I molecule itself.

    NK cells scan cell surfaces in the body and bind their inhibitory receptors to MHC class I molecules. This binding sends an inhibitory (negative) signal into the NK cell, which suppresses its activation and thus protects healthy cells from attack.

    Tumor cells and virus-infected cells often reduce the expression of MHC class I molecules to evade detection by cytotoxic T cells. This phenomenon is known as the „missing-self” principle. When a cell expresses no or reduced MHC class I molecules on its surface, the inhibitory (negative) signal is not transmitted, allowing the NK cell to recognize the target cell as abnormal and attack it.

    Fig. 40: LEFT: NK cell recognises MHC-I and is inhibited. RIGHT: NK cell does not find MHC-I and is activated.

    Activating receptors recognize stress molecules expressed on the surface of infected or transformed cells. There are various stress molecules collectively referred to as„stress-induced self”.When cells are under stress, they express these molecules. The activating receptors on NK cells recognize these stress molecules, leading to the activation and attack of NK cells on the affected cells.

    Fig. 41: Stress molecules are recognised and the attack is initiated despite the presence of MHC-I recognition.

    The activation of NK cells depends on a delicate balance between activating and inhibitory signals. When both activating and inhibitory signals are detected, a weighting of these signals occurs. In the case of predominant inhibition from the inhibitory receptors, the activation of the NK cell is suppressed, and the target cell remains protected. However, if the activating signals dominate or the inhibitory signals are weaker, the NK cell is activated and attacks the target cell. In this way, NK cells can recognize and kill their targets despite the efforts of target cells to evade immune surveillance.

    The natural killer cell (NK cell) can eliminate the target cell in two ways.

    1) Killing by perforins and granzymes

    Firstly, it releases cytotoxins. The cytoplasm of the NK cell contains numerous small granules that contain proteins such as perforin and granzymes.

    These are released in the vicinity of the target cell. Perforins create pores in the membrane of the target cell, through which granzymes enter and initiate apoptosis.

    Fig. 42: The natural killer cell recognises a virus-infected cell. As it does not receive an inhibitory signal and therefore receives a positive signal for the attack, it activates its defence mechanism and kills the target cell by releasing cytotoxins.

    Sometimes antibodies (produced by the immune system) bind to abnormal cells, such as virus-infected cells or cancer cells. NK cells do not recognize the specific variable part of the antibody that binds to the antigen but instead recognize the constant tail region of the antibody, known as the Fc region. At this point, it is enough to know that antibodies consist of a variable part and a constant part. We will examine antibodies in more detail in later chapters. NK cells have Fc receptors that specifically bind to this constant Fc region of antibodies.

    After the NK cell has bound to the antibodies, it releases perforins and granzymes to destroy the target cell.

    Fig. 43: A natural killer cell recognizes the constant tail region (the Fc region, shown in dark red in the image) of the antibody that is bound to a virus-infected cell. By binding through its Fc receptor, the NK cell releases cytotoxic substances (perforins and granzymes) to destroy the infected cell.

    2) Killing by Fas Ligand (FasL)

    Tumor cells or infected cells can express Fas receptors. Fas is a specific „death receptor”. NK cells possess Fas ligands (FasL). When the NK cell binds its Fas ligand to the Fas receptor on the target cell, it transmits signals that activate the apoptotic pathway in the target cell. The interaction between Fas ligand and Fas receptor is also referred to as the „kiss of death”.

    Fig. 44: A natural killer cell recognises a virus-infected cell via the Fas ligand. After binding to the Fas receptor of the target cell, it sends signals that initiate apoptosis.

    The target cell undergoes a series of ordered changes: First, it shrinks and the chromatin (the material that makes up the chromosomes) becomes denser. Then the DNA is broken down into small fragments. Finally, the cell disintegrates into small vesicles, so-called apoptotic bodies, which are recognised and eliminated by specialised cells of the immune system, such as macrophages.

    Fig. 45: After apoptosis of the target cell, macrophages remove the remains by phagocytosis.

    The following animated video briefly and concisely explains the function and importance of NK cells.

    Source: Immune System – Natural Killer Cell

    „In the recent past, it was assumed that NK cells do not have an immunological memory, i.e. they cannot ‚remember‘ encounters with virus-infected cells. For some years now, however, there have been indications that they adapt to their environment over the course of their lives – abilities that were previously only attributed to the acquired immune system.“ [DocCheck]

    Although NK cells are part of the innate immune system, they are often regarded as a bridge between the innate and adaptive immune systems, as they influence the overall immune response through interaction with other immune cells. Natural killer cells play a crucial role in combating viral infections and cancer cells, keeping these threats in check until the specific immune response is fully activated.

    The leukocytes (white blood cells) as the second line of defence are supported in their work by the complement system.

    5.4. The Complement System

    An important part of our immune response is the complement system. It is present in newborns and thus belongs to the innate immune system. As an immediate defense, it targets invaders that have breached the body’s natural barriers, such as the skin or mucous membranes. In cooperation with the specific immune system, it „complements” the immune response.

    Essentially, the complement system has three tasks: it marks enemies, activates the immune defence and burns holes in the enemies until they die.

    In order to get rid of pathogens, the complement system goes through the following phases:

    a) Recognition and marking of the pathogen (opsonization)
    b) Activation of the immune defence (inflammation, complement cascade)
    c) Destruction of the pathogen (phagocytosis, lysis)
    d) Removal of the debris and healing of the damaged tissue

    For these tasks, around 30 complement proteins are available, which are present in body fluids and tissues. These proteins have different functions and are called complement factors (C1, C2, C3, … C9). They are capable of splitting into further subunits (e.g., C3 becomes C3a and C3b). They are activated by the cleavage.

    a) Recognition and marking of the pathogen

    Pathogens are recognized by unique surface patterns that are only found on foreign microorganisms or diseased cells. Complement proteins continuously patrol the blood, tissues, and mucous membranes, scanning for pathogenic changes. As soon as they encounter something foreign that they identify as pathogenic, they attach to the identified target and label it for the immune system as a pathogen.

    Fig. 46: Examples of pathogens found

    For example, the finding may be an immune complex (IC), in which an antibody has bound to an antigen. These complexes can also attach to the surfaces of bacteria, viruses, and other parasites, a process known as opsonization. Pathogens labeled in this way become more visible and accessible to other immune cells, such as macrophages, dendritic cells, granulocytes, and natural killer cells. Depending on the pathway of opsonization, there are three different complement pathways.

    Fig. 47: Different complement pathways

    b) Activation of the immune defence

    Depending on the activation pathway, different proteins bind to the pathogen (see figure above). In the classical pathway, C1 binds to immun complexes (IC), in the lectin pathway, mannose-binding lectin (MBL) binds to sugar structures (mannose) on the pathogen surface, and in the alternative pathway, C3 binds directly to the pathogen surface. These bindings all lead to the formation of C3 convertase, a special enzyme that splits the protein C3 into two parts: C3a and C3b.

    Since this mechanism is complex, it is only briefly mentioned here that in the classical and lectin pathways, a series of reactions occurs after the binding of the corresponding proteins, ultimately leading to the formation of C3 convertase. In the alternative pathway, C3 convertase forms directly. C3b, the product of this cleavage, then attaches to the surface of the pathogen. In the alternative pathway, C3b remains directly on the pathogen surface.

    Fig. 48: Different complement pathways all lead to C3 convertase.

    The smaller C3a proteins act as distress signals, which are flushed away and activate additional complement proteins. These newly mobilized proteins follow the distress signals to the source of the inflammation, attach to the enemy, and also undergo cleavage. This leads to a domino effect known as the complement cascade. An inflammatory response is triggered, which continues to amplify until countless complement proteins cover the invaders.

    Fig. 49: Countless complement proteins cover the invader.

    The distress signals also cause the smaller local blood vessels to dilate and become more permeable. This makes it easier for immune cells to migrate from the blood vessels into the infected tissue. In addition, further immune cells are attracted by the distress signals. This leads to swelling of the surrounding area at the site of infection, resulting in the typical characteristics of inflammation such as swelling, redness, warmth and pain. The inflammation burns.

    Fig. 50: Complement cascade leads to inflammation.

    c) Destruction of the pathogen

    The summoned immune cells locate the marked pathogens by utilizing specific complement receptors on their surface that bind to the C3b protein. These receptors enable phagocytes to selectively recognize the marked pathogens. The phagocytes then engulf the pathogen, take it in, and digest it.

    Fig. 51: Phagocytosis of the C3b-opsonized (marked) pathogen

    The complement proteins also launch an attack. Additional proteins (C5b, C6, C7, C8, and several C9) now bind to the invader. These complement proteins assemble into protein units (C5b678poly9 complexes), known as membrane attack complexes (MAC), which punch pores in the enemy’s cell membrane. The holes created in the cell membrane lead to a fluid exchange between the interior of the cell and the surrounding environment, resulting in the dissolution of the pathogen, a process known as lysis.

    Fig. 52: Complement proteins form membrane attack complex (MAC), which leads to lysis.

    The animation „Little Bombs in the Blood – The Complement System” vividly illustrates the complex processes described.

    The complement system interacts strongly with the coagulation system. The inflammatory response triggered by the complement system causes blood clotting at the site of infection. Clots block the small blood vessels, preventing the pathogens from spreading further through the blood. At the same time, fluid is directed into the tissue and from there to the lymph nodes. This allows the dendritic cells loaded with antigens to more easily reach the lymph nodes. There, they present the antigens to the T cells, thereby initiating the specific immune response.

    d) Removal of the debris and healing of the damaged tissue

    The immune response ends when the threat has been eliminated. In order to heal, the remains of cell debris, bacteria or viruses must first be removed from the wound area. This task is performed by the macrophages. The inflammation dissolves as a result of the cleansing. With the formation of new cells, the tissue is repaired or completely regenerated. The clots that have become superfluous are broken down again by fibrinolysis, i.e. the enzymatic dissolution of clots.

    Regulation of the complement system

    The various complement fragments also have an immunoregulatory effect. These regulators can enhance or inhibit the defense response, thereby terminating the immune response. A dysregulation of the complement system has serious consequences for health. Both the complement and coagulation systems are meant to act only locally. Widespread activation throughout the entire organism could have severe consequences. Dysregulation can lead to autoimmunity, where the body’s own cells are attacked, resulting in various diseases.

    The combination of leukocytes and the complement system ensures an effective and coordinated defense against infections. If the specialized immune cells, in collaboration with the complement system, manage to eliminate all pathogens, the immune response comes to an end. However, it is not always possible to completely eradicate all pathogens through the nonspecific defense. In such cases, the specific immune system comes into action.

    5.5. The Specific Immune Defense

    Although the innate, non-specific defence reacts very quickly, it is not always sufficient. It can fend off many pathogens, but some are able to overcome this line of defence. From this point onwards, the body reacts with a targeted, i.e. specific, immune response. The specific defence is slower than the non-specific defence, as it needs time to develop a tailored response to the invader.

    As this defence is specifically directed against certain pathogens, it is much more accurate and efficient. It can also memorise information about an attacker. It develops in a lifelong training process. This is why it is also referred to as acquired immune defence or adaptive immune defence.

    5.5.1. Key Players of the Adaptive Immune Response
    5.5.2. Naive B and T Cells: The Diversity of the Immune Response
    5.5.3. The Role of Antigen-Presenting Cells (APCs)
    5.5.4. The Importance of Lymph Nodes for the Adaptive Immune Response
    5.5.5. Recognition Phase
    5.5.6. Activation Phase
    5.5.7. Effector Phase
    III – Third Line of Defense: The Antibodies
    5.5.8. Types of Antibodies
    5.5.9. The Action Phase of Antibodies
    5.5.10. Regulatory T Cells and Their Role in the Immune System
    5.5.11. Switch-Off Phase
    5.5.12. Immunological Memory

    Before we go into the individual processes in more detail, the following section will introduce the individual players in the specific immune defence.

    5.5.1. Key Players of the Adaptive Immune Response

    Key players in the adaptive immune response are specialized leukocytes known as B lymphocytes (B cells) and T lymphocytes (T cells). These work within two closely intertwined systems: the humoral and the cellular immune response.

    Fig. 53: Immune cells of the specific immune defence
    a) Development and Maturation of Lymphocytes
    b) Humoral and Cellular Defense Mechanisms
    c) Migration and Distribution of Lymphocytes
    d) Structure of the Lymphatic Organs
    a) Development and Maturation of Lymphocytes

    B and T cells develop from stem cells in the bone marrow. While the B cells fully mature in the bone marrow, the T cells migrate to the thymus after their formation in order to complete their maturation there. The abbreviations B and T are derived from their places of formation: B stands for Bone marrow and T for Thymus.

    B and T cells are considered naive as long as they have not yet encountered an antigen.

    b) Humoral and Cellular Defense Mechanisms

    Humoral defence involves combating pathogens in body fluids such as blood and lymph (from the Latin humor, meaning fluid). The main players in this defense are B lymphocytes. They recognize specific antigens and subsequently produce antibodies that bind to the antigens. This binding marks the pathogens for destruction by other immune cells or directly neutralizes them. This process is particularly effective against pathogens that are outside of body cells, such as bacteria and viruses that have not yet invaded a cell.

    Cellular defence, on the other hand, is carried out by T lymphocytes. They recognise and destroy infected cells or cells that have become abnormal in some other way. T lymphocytes can also activate other immune cells to enhance the destruction of pathogens. T cells are further subdivided into CD4+ T cells and CD8+ T cells, each of which has different roles in the immune response.

    In the following text, the terms CD4 T cells and CD8 T cells will be used to improve readability. The ‚+‘ symbol denotes the expression of specific surface markers on the T cells. It indicates that these T cells carry the corresponding markers on their surface. In many contexts, the ‚+‘ symbol can be omitted without losing its meaning.

    CD4 T cells are primarily T helper cells; they support and regulate the activities of other immune cells. CD8 T cells are mainly cytotoxic T cells. They recognize and destroy infected cells, especially those infected by viruses, as well as cancer cells.

    c) Migration and Distribution of Lymphocytes

    After their development, the naive B cells and T cells enter the blood. As soon as they reach a secondary lymphatic organ (e.g. a lymph node), they leave the blood and migrate through the lymphatic tissue. From there, they return to the blood via the lymphatic vessels and thus shuttle back and forth between the blood and secondary lymphatic tissue.

    To understand this better, it is worth taking a closer look at the structure of the lymphatic organs.

    d) Structure of the Lymphatic Organs

    The various secondary lymphatic organs (such as lymph nodes, spleen, etc.) are all organised according to a similar pattern: they contain separate areas in which the B and T cells accumulate – the so-called B cell and T cell zones. Circulating T and B cells enter the secondary lymphoid tissues from the blood via a common pathway, but are directed to their respective compartments (areas) by the action of different chemokines (signalling proteins that control the movement of cells).

    Fig. 54: LEFT: Components of the lymphatic system, RIGHT: Structure of a lymph node

    A lymph node is surrounded by a thin capsule of connective tissue that extends small partitions into the interior, dividing the lymph node into different sections. On the convex side, lymph fluid flows into the lymph node through afferent lymphatic vessels. On the indented side, known as the hilum, the filtered lymph fluid exits the lymph node through a special efferent lymphatic vessel. At this point, blood vessels also enter and exit the lymph node. Inside, the lymph fluid passes through specialized channels known as the sinus system. In the outer layer of the lymph node, B cells are found in small clusters called lymph follicles. This B cell region directly borders the area of T cells, known as the paracortex. Both B and T cells can enter the lymph node through the blood (artery) or the afferent lymphatic vessels and then exit through the blood (vein) or the efferent lymphatic vessels.

    5.5.2. Naive B and T Cells: The Diversity of the Immune Response

    Naive T cells carry unique T cell receptors (TCRs) on their surface that are specifically designed for the recognition of antigens. Similarly, naive B cells possess a variety of B cell receptors (BCRs), which also serve the purpose of antigen recognition.

    The immense diversity of TCRs and BCRs arises from a genetic mechanism known as somatic recombination or somatic V(D)J recombination. In this process, different gene segments are randomly combined, leading to the formation of billions of different receptors. This enables the immune system to be prepared for nearly every conceivable antigen.

    Fig. 55: Diversity of naive T cells, each of which has different T cell receptors (TCRs).

    From birth, humans possess at least one immune cell for every potential pathogen on this planet. [Evolution of immune receptor diversity]

    Or as it is impressively described in the videos „How The Immune System ACTUALLY Works” and „You Are Immune Against Every Disease”: Your immune system has a perfect weapon against every possible disease in the universe against the Black Death the Corona virus or an infection that will emerge in 100 years on Mars.

    The videos were published on the channel ‚Kurzgesagt – In a Nutshell‘ in 2021, which was part of the funk network from ARD and ZDF until the end of 2022. [wikipedia]

    This diversity gives the adaptive immune system its impressive strength by maintaining a vast library of responses to virtually every possible pathogen. This immense adaptability is crucial for being able to combat rapidly evolving bacteria and viruses.

    All living organisms consist mainly of proteins, which are structured like 3D puzzle pieces and can take on billions of different shapes. Pathogens utilise this diversity to constantly change their structures. The influenza virus, for example, mutates so quickly that its envelope proteins are constantly changing slightly, making it difficult for the immune system to recognise it.

    The innate immune system recognizes many of the most common protein puzzle pieces and thus acts as a general-purpose weapon. However, it is often powerless against the countless mutations and adaptations of pathogens. This is where the adaptive immune system comes into play, as it can distinguish between one and ten billion different hostile protein puzzle pieces.

    However, in order for these highly specialised cells to effectively combat a specific pathogen, they must first be presented with the corresponding antigen. This is precisely where the antigen-presenting cells (APCs) play a decisive role.

    5.5.3. The Role of Antigen-Presenting Cells (APCs)

    Antigen-presenting cells (APCs) form the crucial interface between the innate and adaptive immune responses. Among the most well-known APCs are macrophages, dendritic cells, and B cells, with dendritic cells being particularly efficient at capturing and presenting antigens. Antigen presentation is a fundamental requirement for initiating the adaptive immune response, especially for activating T cells, which usually occurs in the lymph nodes. In the lymph nodes, antigen-presenting cells and T cells come into contact, enabling the immune response to take place.

    Dendritic cells have the unique ability to present antigens through two distinct pathways: via MHC class II molecules and MHC class I molecules. Let’s take a closer look at both presentation pathways.

    a) Antigen Presentation via MHC-II Molecules
    b) Antigen Presentation via MHC-I Molecules
    c) Dendritic Cells migrate to the Lymph Nodes
    a) Antigen Presentation via MHC-II Molecules

    As soon as a dendritic cell has recognised an (exogenous) pathogen, it binds to it, encloses it with its mobile membrane and absorbs the pathogen by invaginating it.

    Fig. 56: A dendritic cell recognizes molecular patterns (PAMPs) on a pathogen through pattern recognition receptors (PRRs). This initiates the phagocytosis of the pathogen. („Exogenous” indicates that the pathogen has entered the body from the outside.)

    The pathogen ends up in a membrane-enveloped vesicle known as a phagosome. The phagosome fuses with a lysosome, which contains digestive enzymes that break down the pathogen. Smaller fragments are produced in the phagolysosome, including potential antigens. These antigens are bound to MHC class II molecules and presented on the cell surface.

    Fig. 57: Antigen presentation by MHC class II molecules in dendritic cells:

    1) Phagocytosis of exogenous antigens. 2) Degradation of antigens in phagolysosomes. 3) Assembly and transport of MHC-II molecules from the endoplasmic reticulum (ER) to the Golgi apparatus. 4) Fusion of the vesicles and loading of the MHC-II molecules with peptides. 5) Presentation of the loaded MHC-II on the cell surface.

    In this way, the dendritic cell displays outward what pathogen it has detected. These MHC-II-antigen complexes are crucial for the activation of CD4 T cells.

    Fig. 58: Dendritic cell presents the MHC-II antigen complex.

    A clear and concise visualization of MHC class II antigen processing and presentation is provided by Dr. Noel Kowal.

    Quelle: MHC Class II Antigen Processing and Presentation
    b) Antigen Presentation via MHC-I Molecules

    I – Direct infection

    Dendritic cells, like all cells, must continuously produce proteins to survive. Once these proteins have fulfilled their function, they are degraded into smaller fragments (peptides) in the proteasome. If the dendritic cell is infected by a pathogen such as a virus, it produces viral (endogenous) proteins, which are also degraded in the proteasome. The resulting peptides (antigens) are bound to MHC class I molecules and then transported to the cell membrane via vesicles through the Golgi apparatus. There, they are available for recognition by CD8 T cells.

    Fig. 59: Antigen presentation via MHC class I molecules in dendritic cells:

    1) The dendritic cell is infected by a pathogen (virus). 2) The virus is broken down into peptides in the proteasome. 3) These peptides are transported into the endoplasmic reticulum (ER). 4) There, the peptides bind to MHC class I molecules. 5) The antigen-MHC-I complexes are packaged into vesicles via the Golgi apparatus. 6) They are then transported to the cell surface. („Endogenous” indicates that the pathogen or antigens originate from within the cell.)

    Dr Noel Kowal also provides a concise visualisation of MHC class I antigen processing and presentation.

    Quelle: MHC Class I Antigen Processing and Presentation

    II – Cross-presentation

    Interestingly, dendritic cells can also present antigens (from viruses or bacteria) on MHC class I molecules, even if they are not infected by these pathogens. This process is called cross-presentation and is important for our immune system because it often leads to the activation of defence cells more frequently than the direct infection of dendritic cells.

    Dendritic cells take up antigens from dead or destroyed infected cells. Normally, these antigens would be processed in a special vesicle within the cell, the phagosome, and presented on MHC class II molecules. However, in cross-presentation, something special happens: the antigens move from the phagosome into the cell’s interior (cytoplasm) and are broken down into small pieces by the proteasome.

    These small protein fragments (peptides) are then transported into the endoplasmic reticulum (ER), where they bind to MHC class I molecules. Sometimes this process can even take place directly in the phagosome. Finally, these loaded MHC-I molecules are brought to the cell surface.

    Fig. 60: Antigen presentation by MHC class I molecules in dendritic cells:

    1) The dendritic cell phagocytizes or takes up viral remnants from infected or destroyed cells. 2) The taken-up viral material is enclosed in a phagosome, which later fuses with a lysosome to form a phagolysosome. The viral material can enter the cytoplasm from the phagolysosome. Alternatively, certain viral components can directly enter the proteasome, where they are broken down into smaller peptides. 3) These peptides are transported to the endoplasmic reticulum (ER). 4) There, the peptides bind to MHC class I molecules. 5) The antigen-MHC-I complexes are packaged into vesicles via the Golgi apparatus. 6) Finally, they are transported to the cell surface.

    In this way, dendritic cells can present antigens that they would normally present on MHC class II molecules also on MHC class I molecules. This is crucial because it activates specialized immune cells, the CD8 T cells, which can recognize and destroy infected cells.

    The process of cross-presentation in dendritic cells is complex and not yet fully understood. Although significant progress has been made in recent years and many important mechanisms have been clarified, some aspects remain the subject of intensive research.

    Cross-presentation is crucial for the immune system as it enables dendritic cells to present a variety of antigens and thus activate a strong CD8 T cell response.

    c) Dendritic Cells migrate to the Lymph Nodes

    After antigen uptake and processing, dendritic cells migrate with their findings to the nearest lymph nodes.

    Fig. 61: Antigen-presenting dendritic cells migrate to the T-cell zone in the lymph node.

    There they present their antigen-MHC complexes to the naive T cells.

    Fig. 62: Antigen-presenting dendritic cells search for the appropriate T-cell receptor (TCR).

    The following graphic summarises once again how dendritic cells present antigens in two different ways: via MHC class I and MHC class II molecules.

    Fig. 63: Dendritic cells activate T cells.

    CD4 T cells possess both a T cell receptor (TCR) and a CD4 molecule, which gives them their name. The T cell receptor is responsible for binding to an antigen presented by an MHC class II molecule. The CD4 molecule directly binds to the MHC class II molecule. Since the CD4 molecule cannot bind to MHC class I molecules, this ensures that CD4 T cells only interact with MHC class II molecules. Conversely, CD8 T cells express a T cell receptor and a CD8 molecule. The CD8 molecule cannot bind to MHC class II molecules, ensuring that CD8 T cells exclusively interact with MHC class I molecules.

    5.5.4. The Importance of Lymph Nodes for the Adaptive Immune Response

    An adaptive immune response occurs when naive T cells encounter activated antigen-presenting cells (such as dendritic cells) in secondary lymphoid organs such as the lymph nodes. These specialised organs enable effective interactions between circulating lymphocytes and their target antigens.

    In order for the rare antigen-specific T cells to efficiently search for antigen-presenting cells, they continuously circulate through the lymphatic organs. Here, they examine antigens brought in from various tissue regions.

    For the initiation of an adaptive immune response, it is crucial that pathogens or their antigens are transported to the secondary lymphatic organs. Without this transport to the lymph nodes, T cells cannot be sensitized, demonstrating that the adaptive immune response is not initiated directly in the infected tissue, but rather in the lymphatic organs. There, the production of antibodies by activated B cells is also stimulated.

    The adaptive immune response requires pathogens or their antigens to be transported to secondary lymphoid organs such as lymph nodes. These organs are essential for triggering the immune response, including the production of antibodies. [T cell-mediated immunity]

    5.5.5. Recognition Phase

    The task of the dendritic cell (DC) is to find the ONE suitable T cell that matches the pathogen found among the billions of T cell variations. The DC remains in the lymph node and presents the antigen it has found, while the T cells circulate in the lymph node and scan the antigen-MHC-II complexes on the surface of the dendritic cell. You could say that the T cells ’sniff‘ the dendritic cells like guests to whom you first say ‚hello‘. Understandably, this can take a while. Only the T cells that can bind to the antigen are selectively activated.

    5.5.6. Activation Phase

    a) T Cell Activation
    b) B Cell Activation

    As soon as a T cell recognises a suitable antigen-MHC complex on a dendritic cell, it binds to it. This can be compared to a firm and prolonged handshake in greeting, which triggers a series of signals in the T cell and causes its activation. This initial contact with the antigen and the resulting activation of naive T cells is often referred to as priming.

     a) T Cell Activation 

    The activation of naive T cells is controlled by several signals (see figure below). The primary signal is the recognition of the antigen-MHC complex (1) on the antigen-presenting cell. In addition, T cell activation also requires the recognition of costimulatory signals (additional signals to activate immune cells, 2) and cytokines (3) sent by the antigen-presenting cell.

    Fig. 64: Dendritic cell (DC) activates the naive T cell via three signals.

    These various signals serve as verification steps and act as a protective mechanism to prevent an overreaction of the immune system. Detailed information on T cell activation can be found here and here.

    After activation, T cells remain in the T cell zone of the lymph node for several days. During this time, they begin to divide and differentiate. The naive T cells develop into T effector cells that are specialized for different activities. The differentiation of T cells into various T effector cells depends on the combination of cytokines and other signals present during activation and the initial phase of the immune response.

    Some activated CD4 T cells differentiate into T helper cells (Th cells), which support other immune cells and enhance the immune response. Others can become regulatory T cells (Treg), which help regulate the immune response and prevent the immune system from overreacting and attacking the body’s own tissues.

    Activated CD8 T cells differentiate into cytotoxic T cells (Tc). These Tc cells can specifically kill infected cells or tumour cells by releasing cell-damaging substances.

    Detailed information on T-cell differentiation can be found here.

    Fig. 65: Activated T cells differentiate into T effector cells.

    CD4 T cells are usually activated first. These cells act as conductors of the immune response. Once activated, they help coordinate the work of other immune cells, including CD8 T cells. They do this by releasing certain messenger substances (cytokines) and sending additional (costimulatory) signals that enable the activation and support of other cells of the immune system.

    Overall, cytokines ensure that the immune response proceeds more effectively and precisely, similar to how a catalyst accelerates a chemical reaction.

    During division, thousands of T cells are generated, all bearing the same specific T cell receptor that recognizes the antigen.

    Fig. 66: The activated T helper cell begins to divide. Cytotoxic T cells and regulatory T cells also undergo proliferation (division) after activation.
     b) B Cell Activation 

    B cells can take up antigens directly without being dependent on dendritic cells. Nevertheless, interaction with these cells can be important for the activation of B cells.

    B cells bind specific antigens directly from their environment via their B cell receptor (BCR), which exists in many different variants and thus enables a broad recognition of antigens.

    Small antigen molecules or particles can penetrate directly into the lymph vessels and be transported with the lymph fluid to the lymph nodes, where they are taken up by B cells. In this case, the B cell is already in the lymph node when it takes up and processes the antigen. Alternatively, the B cell can also encounter an antigen outside the lymph node. In this case, it migrates to the secondary lymphatic organs such as the lymph nodes after antigen uptake.

    Fig. 67: Several B-cells are shown in the B-cell zone in the lymph node, each with a unique B-cell receptor (BCR) on its surface. These BCRs are the result of somatic recombination. Each B cell can only bind one specific antigen.

    After binding, B cells take up the „free” antigen along with the BCR through endocytosis, a process in which the cell membrane invaginates and internalizes the BCR along with the antigen into the cell. There, the antigen is processed internally and subsequently presented on MHC class II molecules.

    Fig. 68: The naive B cell presents its B cell receptor (BCR), which is structured like a membrane-bound antibody. The BCR specifically binds to an antigen, which is then taken up and processed, appearing as an antigen-MHC class II complex on the surface of the B cells.

    B cells have the ability to directly bind antigens from the environment as well as to recognise antigens presented by dendritic cells. While direct binding to the antigen is the most common pathway, in rare cases B cells can also be activated by interacting with antigen-presenting cells (such as dendritic cells or macrophages). In this case, a B cell recognises the same antigen that is presented on the MHC-II molecule of an APC. This binding between the BCR of the B cell and the presented antigen leads to a signal transmission that activates the B cell. The APC can also express costimulatory molecules that provide additional signals that enhance the activation of the B cell. Nevertheless, the activation of a B cell by an APC is usually not sufficient to fully activate the B cell. The additional support of T helper cells is required in most cases.

    For a B cell to be fully activated, it usually requires assistance from T helper cells. This process is referred to as T cell-dependent B cell activation.

    T cell-dependent B cell activation

    Already activated T-helper cells migrate in the lymph node to the border zone between the T-cell zone and the B-cell zone, where they interact with the B-cells.

    Fig. 69: In the B cell zone, B cells are in various stages of activation. Some B cells are not yet activated and have neither taken up antigens nor have MHC-II complexes on their surface. Other B cells have already bound antigens via their B cell receptor (BCR) (1). In addition, there are B cells that have processed the antigen and present it on MHC-II molecules (2). These B cells are further activated and interact with T helper cells (3). Naive T cells (light green) that have not yet recognised any antigen are visible in the T cell zone. Some activated T helper cells are still in the T cell zone, while others are already interacting with B cells in the border zone (3).

    T helper cells that have recognized the same antigen bind to the antigen-MHC class II complex on the surface of B cells. This binding provides the first activation signal. As a result, T helper cells express costimulatory molecules (such as CD40L, which binds to the CD40 receptor on B cells). This provides the second signal for the complete activation of B cells. Additionally, T helper cells also release cytokines that promote the growth, differentiation, and function of B cells.

    Fig. 70: Interaction with T helper cells fully activates the B cells. The activated B cells proliferate and differentiate into plasma cells and memory B cells.

    This two-stage mechanism – binding to the antigen-MHC-II complex (first signal) and interaction with costimulatory molecules and the release of cytokines (second signal) – represents an important safety control. It ensures that an immune response is only triggered when it is really necessary. Activation of the B cells solely through antigen recognition would be less regulated and could increase the risk of undesirable reactions, such as autoimmune reactions.

    After complete activation, the B cells begin to proliferate and differentiate into two main types: plasma cells and memory B cells.

    T cell-independent B cell activation

    T cell-independent B cell activation is a less common mechanism that primarily occurs during certain bacterial infections. In this type of activation, B cells recognize antigens that typically have repetitive structures (i.e., repeating patterns), such as the polysaccharides on the surface of bacteria. These antigens can directly cross-link the B cell receptors (BCRs) on the B cells, thereby triggering activation without the need for T helper cell assistance.

    While this process is faster, it often leads to a less robust and long-lasting immune response compared to T cell-dependent activation. In addition, memory cells do not usually develop, which means that the immune response is not as strong and efficient when the same pathogen re-infects the body.

    5.5.7. Effector Phase

    During the activation phase, the immune cells are „prepared” for the pathogen. In the effector phase, these activated immune cells go into action to specifically combat and eliminate the pathogen. In this phase, the immune cells act as effectors that take specific measures to control and eliminate the infection. Most effector T cells leave the lymph node, enter the bloodstream and migrate specifically to the site of infection.

    a) T Helper Cells
    b) Cytotoxic T Cells
    c) Plasma Cells
     a) T Helper Cells 

    T helper cells support other immune cells such as macrophages at the site of infection by releasing cytokines that act as signalling substances. These cytokines enhance the ability of the immune cells to eliminate microbes by phagocytosis.

     b) Cytotoxic T Cells 

    Cytotoxic T cells, on the other hand, seek out infected or degenerated body cells and destroy them by triggering programmed cell death (apoptosis).

    Cytotoxic T cells (also known as CTLs or CD8 T cells) are extremely precise in their action. They recognise specific antigens that are presented in conjunction with MHC-I molecules on the surface of infected or abnormal cells.

    Fig. 71: The cytotoxic T cell recognizes the infected cell via its T cell receptor (TCR) and binds specifically to it.

    After this recognition, they specifically destroy only the cells that carry the corresponding antigen. There are two main ways in which the target cells are eliminated:

    1) Killing by perforins and granzymes: Perforin forms pores in the cell membrane of the target cell, directly damaging it and creating a channel through which granzymes can enter the cell. Granzymes trigger programmed cell death (apoptosis) in the target cell, which ultimately leads to the destruction of the cell.

    2) Killing by Fas ligand (FasL): Cytotoxic T cells express a molecule called Fas ligand (FasL), which binds to the Fas receptor on the surface of the target cell. This binding activates a signaling cascade that also triggers apoptosis.

    Fig. 72: Elimination of the target cells mainly takes place in two ways:

    1) After the cytotoxic T cell (CTL) has bound to the target cell, it discharges special vesicles, so-called cytotoxic granules, into the narrow contact area between the CTL and the target cell. These granules contain perforin and granzymes. Perforin forms pores in the cell membrane of the target cell through which granzymes penetrate into the cytoplasm. There they trigger a series of processes that lead to the destruction of cell DNA and the degradation of cell proteins, which causes an orderly cell death (apoptosis) without inflammatory reactions.
    2) When the CTL encounters a target cell with the Fas receptor on its surface, its Fas ligand (FasL) binds directly to this receptor, similar to a key that fits into a lock. This binding activates a signaling cascade in the target cell that leads to apoptosis. As a result of this signaling cascade, the target cell begins to degrade itself and eventually dies.

    Cytotoxic T cells act similarly to natural killer (NK) cells, but with a crucial difference: they destroy target cells in a controlled and precise manner, thereby largely sparing the surrounding tissues.

    Fig. 73: After the target cell has been destroyed by apoptosis, it remains as a collection of cell debris. This debris is recognized and taken up by phagocytes such as macrophages.

    These videos (here and here) illustrate very well how cytotoxic T-killer cells work.

     c) Plasma Cells 

    After B cells are activated, they begin to rapidly divide and differentiate into plasma cells, which are specialized in producing and releasing large amounts of specific antibodies. To better understand this complex process, let’s take a step-by-step look at it.

    The activated B cells divide extremely quickly and often, so that thousands of identical B cells develop from a few initial cells in a short space of time. This enables the immune system to produce a large number of B cells within a few days, all of which carry the appropriate BCR and either differentiate into plasma cells to produce antibodies or become memory cells.

    Fig. 74: Proliferation (division) of the activated B cell

    What is particularly fascinating is the fact that the B cell receptor (BCR), which is located on the surface of every B cell, is already the template for the antibody that will later be produced. In other words, the BCR is a „preview” of the antibody that the cell will release in large quantities after its activation.

    What truly stands out as a masterpiece of nature is the way these BCRs are created. During B cell development, the gene segments that form the B cell receptor, and therefore the future antibody, are randomly combined. The result of this somatic recombination is an incredible diversity of antigen-binding sites – with up to 10 billion possible variants.

    We’ve already encountered somatic recombination with T cell receptors (TCR). As with T cells, the random shuffling of genes here also ensures the creation of a large diversity of receptors. This way, nature ensures that for almost every conceivable invader, there is already a matching immune cell with the right receptor available. It’s as if the immune system holds a giant stockpile of „keys” (antibodies), nearly all of which can fit a new „lock” (antigen) that the body encounters. The key difference, however, is that B cells not only recognize antigens but also release the corresponding antibodies against them.

     III – Third Line of Defense: The Antibodies 

    These B cell receptors (BCRs), which are still firmly bound to the cell membrane, are also known as membrane-bound antibodies or immunoglobulins (Ig). As soon as the B cell transforms into a plasma cell, the BCR is released in its soluble form – as a fully functional antibody.

    Plasma cells – the antibody factories

    Plasma cells are crucial for immune defense, as they provide the immune system with large quantities of specific antibodies. Each plasma cell can produce up to 10.000 antibodies per minute.

    Fig. 75: LEFT: B cell with B cell receptors (BCR), which are firmly anchored in the cell membrane. These BCRs are the precursors of the later antibodies. The activated B cell develops into a plasma cell. RIGHT: Once B cells have become plasma cells, their main task is the mass production of specific antibodies, whereby their DNA is no longer modified. The plasma cell produces soluble antibodies and loses its membrane-bound BCRs. The antibodies produced are transported out of the cell in small vesicles.

    Plasma cells can either settle in the lymph nodes, from where they release antibodies into the lymph and blood, or they migrate to the bone marrow, where they produce antibodies long-term that also enter the bloodstream from there. Some plasma cells also remain in other tissues, such as the spleen or mucous membranes.

    5.5.8. Types of Antibodies

    Each antibody is made up of a variable and a constant region. The variable region, which is created by somatic recombination, is responsible for the highly specific recognition of antigens.

    The constant region of the antibody remains unchanged and determines the class of the antibody. A distinction is made between five classes (isotypes) of immunoglobulins: M, G, A, D, E and they are designated by the abbreviations IgM, IgG, IgA, IgD, IgE.

    Fig. 76: Types of antibodies

    Antibodies consist of a variable and a constant region.They are divided into two fragments: the Fab region and the Fc region. The Fab region comprises the „arms” of the Y-shaped structure and is responsible for binding to specific antigens. Each antibody has two Fab regions, each containing a variable region that forms the antigen binding site. The Fc region is the „stem” of the antibody and mediates effector functions of the immune system by being recognized and bound by immune cells such as macrophages and NK cells as well as complement proteins.

    Different classes of antibodies are produced at different times during the immune response:

    Primary immune response

    IgM: This is the first antibody produced during a primary immune response. IgM antibodies appear quickly after the first exposure to an antigen and are particularly effective in activating the complement system.

    IgG: Although IgM is the first antibody produced, IgG is also generated during the initial exposure, albeit slightly later. IgG has a higher affinity for the antigen and circulates in the blood for a longer period, providing prolonged protection.

    Secondary immune response

    IgG: Upon re-exposure to the same antigen, IgG is produced much more quickly and in greater quantities than during the primary immune response. This provides more effective and rapid protection. Additionally, IgG can cross the placenta and provide passive protection to the fetus.

    Specific functions

    IgA: These antibodies are mainly found in mucous membranes and body fluids such as saliva, tears and breast milk. They play a central role in protecting the mucous membranes from infections.

    IgE: IgE is mainly involved in allergic reactions and plays a role in the defense against parasites.

    IgD: The function of IgD is not yet fully understood, but it is thought to play a role in the activation and maturation of B cells.

    By measuring and analyzing these antibody classes, conclusions can be drawn about the immune status, the time of infection and the type of immune reaction, which is of great importance in clinical diagnostics.

    a) IgM - the first antibody
    b) Class Switching (Isotype Switching) to IgG
    c) IgA - The Protective Barrier of Mucous Membranes
    d) Mucosal Immunity: Why IgG Is Unsuitable for This
    a)  IgM – the first antibody 

    IgM is the first antibody that plasma cells produce in response to an initial infection. This is because B cells already have the genetic information to produce IgM, which they use via their B cell receptor (BCR).

    IgM antibodies occur as pentamers, which means that they consist of five individual antibody units that together form a large, ring-shaped molecule. This structure allows IgM to have up to ten binding sites for antigens (two per unit antibody), enabling particularly effective binding to multiple antigen molecules simultaneously.

    Here are some reasons for this structure of IgM:

    Increased Avidity: Due to their pentameric structure, IgM antibodies can bind several antigens at the same time. This increases their ability to capture and neutralize large quantities of antigens.

    Efficient Complement Activation: The large number of binding sites on IgM enables particularly efficient activation of the complement system. IgM can trigger a strong immunological reaction by binding to antigens and subsequently binding to complement proteins.

    However, IgM antibodies tend to not adhere very strongly to pathogens and may fall off. Therefore, they do not provide optimal protection initially. However, IgM can be produced quickly and in large quantities, making it the „first response” in antibody production. IgM antibodies are primarily found in the blood.

    b)  Class Switching (Isotype Switching) to IgG 

    After the immune system initially produces IgM antibodies during an infection, it later switches to the production of IgG antibodies. This switch is known as a class switch or isotype switch. The reason for this is that IgG antibodies are better suited for a more targeted and longer-lasting defense.

    During an infection, B cells that have previously proliferated are continuously activated. The switch from IgM to IgG is initiated by signals from helper T cells, which send cytokines (special messenger substances) to the B cells. These signals give the B cells the „go-ahead” to begin producing IgG antibodies, which are more effective in combating the pathogen.

    IgG antibodies are better than IgM in many respects:

    Greater affinity: In the course of the immune response, the B cells undergo a process known as affinity maturation. During this process, the antibodies become better and better at binding the antigen. These improved IgG antibodies not only bind more strongly and specifically to the antigen, but also neutralize the pathogen more effectively.

    Affinity maturation is a DNA „enhancement” during the course of infection. During the immune response, the B cells are also stimulated by the T helper cells to improve their antigen binding sites (variable regions of the BCR). This occurs through a process known as somatic hypermutation. Targeted mutations occur in the DNA of the B cells, which further optimize the binding sites of their antibodies. B cells with particularly well-matched antibodies (high affinity) are preferred.

    Smaller and more flexible: IgG molecules are smaller and more mobile than IgM. This allows them to penetrate tissues more easily and reach hard-to-access areas where the infection may be occurring.

    Fig. 77: In the first phase, the plasma cell produces IgM antibodies, which act quickly but with relatively low binding strength (affinity) against the antigen. Due to the isotype switch, the B cell later switches to the production of IgG antibodies. These are smaller, reach areas that are difficult to access and are therefore more efficient. The „variable” part of the antibody that recognizes the specific antigen is essentially retained, but it can be modified by affinity maturation so that the binding to the antigen becomes stronger. This further optimizes the immune response in order to act more effectively against the pathogen.

    Longer half-life: IgG remains in the bloodstream longer, providing long-term protection against the pathogen.

    Placental Transfer: IgG can cross the placenta and provide passive protection for the fetus during pregnancy, giving the newborn better protection against infections in the first few months of life.

    Immunological memory: IgG antibodies play a key role in immunological memory. After an infection, special memory cells are formed that can quickly produce large quantities of IgG antibodies when exposed to the same pathogen again. As a result, the immune system reacts much faster and more effectively in the event of a second infection.

    Graphic summary

    Fig. 78: IgM and IgG antibody levels over time

    IgM antibodies are produced in the early stages of an infection and can be detected as early as four to seven days after the infection. In contrast, IgG antibodies develop approximately seven to fourteen days after the infection and can, depending on the antigen and the individual immune response, be detected for months or even years. While IgM antibodies are short-lived and often indicate an acute infection, IgG antibodies are more durable and play a central role in the development of long-term immunity.

    You can find detailed information on these processes in the following sources:
    Antibodies & the B cell Receptor”,
    B cells & Plasma Cells“ and
    Antibodies – defense mechanisms of B cells“.

    IgG antibodies are the most abundant class of antibodies in the blood and other body fluids. They are found in large numbers in the bloodstream as well as in tissues and organs and are crucial for the immune response against infections that are already localized in the internal areas of the body. In contrast, IgA antibodies take on a specialized function by acting as a protective barrier for the mucous membranes. Accordingly, a distinction is made between the systemic immune system, which protects the entire body, and the mucosal immune system, which specifically defends the mucous membranes.

    c)  IgA – The Protective Barrier of Mucous Membranes 

    While IgG focuses on fighting pathogens inside the body, IgA antibodies protect the outer mucous membranes, which mark the transition from the outside to the inside. They are the main players in mucosal immunity and are responsible for protecting the body from invading pathogens on mucosal surfaces (such as in the digestive tract, respiratory tract or urogenital tract). IgA antibodies are also found in body fluids such as saliva and tears.

    Mucous membranes form a critical barrier between our insides and the outside environment. In this context, it is interesting to note that, from a biological perspective, everything inside our digestive tract is considered to be outside our body. From the mouth to the anus runs a continuous mucosa-lined cavity – a „digestive cavity” into which we take in food and where digestive enzymes and digestive juices are released. Although this cavity is located inside the body, its contents are biologically regarded as an external area.

    Fig. 79: Organs and body regions lined with mucosal tissue

    Since mucous membranes are in constant contact with the outside world, protection by IgA is particularly important.

    The immune response to pathogens that enter the body through the mucous membranes is similar to that of pathogens that penetrate directly into the body. The following sequence describes the immune system’s reaction to a virus that enters the body through the mucous membrane. Based on the previous explanations, you can already imagine the process quite well.

    First contact with the virus – Innate immune defense:
    When a virus enters the body via the mucous membrane in the mouth, immune cells such as macrophages, dendritic cells and other defense cells react immediately. These trigger an alarm and call further immune cells to the site of infection. Dendritic cells and macrophages recognize the virus via their pattern recognition receptors (PRRs) and take it up by phagocytosis. They then process the virus and present virus fragments (antigens) on MHC-II complexes on their surface. They then migrate via the lymphatic vessels to the nearest lymph node, for example in the neck area, where they present the antigens to the T helper cells.

    Activation of T helper cells – Adaptive immune defense:
    In the lymph node, naive T cells recognize the presented viral antigen on the MHC-II molecules of dendritic cells. This interaction activates the T cells, prompting them to differentiate, including into T helper cells that specifically enhance the immune response.

    Activation of B cells – Adaptive immune defense:
    Activated T helper cells interact with B cells that have taken up the viral antigen and presented it via MHC-II molecules. T helper cells bind with their T cell receptor (TCR) to the MHC-II complex of the B cells and send the activation signal to the B cells via costimulatory molecules (such as CD40L). This signal causes the B cells to differentiate into plasma cells that produce large quantities of antibodies. At the beginning of the immune response, they mainly produce IgM, as this is the first class of antibodies produced by the immune system.

    Class switch (isotype switch) to IgA:
    In the further course of the immune response, when the body fights the infection, activated T helper cells release special signals (cytokines). These signals help the B cells to adapt the type of antibodies they produce. One important signal, TGF-β, causes the B cells to switch classes and start producing IgA antibodies. This switch is particularly crucial in the vicinity of mucous membranes, as IgA plays an important role in mucosal immunity. After the class switch, the B cells continue to differentiate into plasma cells, which then produce IgA instead of IgM.

    Fig. 80: Class switch from IgM to IgA

    In the first phase, the plasma cell produces IgM antibodies. Through the isotype switch, the B cell later switches to the production of IgA antibodies. IgA antibodies also undergo affinity maturation in order to optimize their binding strength to antigens before they are transported into the mucous membranes. Plasma cells can produce both IgA monomers and IgA dimers, depending on where they are located and what specific immune response is required. IgA monomers are mainly produced in systemic areas, i.e. in the blood and in tissues that are not connected to mucous membranes. Mucosal plasma cells in the mucosa are „programmed” by signals from their environment to produce dimeric IgA. This environment promotes the production of the J-chain, which leads to the dimerization of IgA.

    Secretion of IgA at mucous membranes:
    The activated plasma cells that settle in the mucous membranes produce and secrete secretory IgA (sIgA). sIgA is released into the lumen of the mucous membranes (the space surrounded by the mucous membrane), for example, into the oral cavity, via a specialized transport system. There, it can neutralize the virus by binding to it and preventing its entry into the mucosal cells..

    This neutralizing effect of IgA renders the virus harmless before it can penetrate deeper into the body and cause further damage.

    In addition to the production of secretory IgA (sIgA) at the mucous membranes, IgG is also produced. IgG provides systemic immune protection and is important when pathogens such as viruses cross the mucosal barrier and enter the tissue or the bloodstream. Both antibodies, IgA and IgG, therefore work in a complementary manner to ensure a comprehensive defense.

    Structure of IgA

    In the mucous membranes, such as in the digestive tract, the respiratory tract and the urogenital tract, IgA is predominantly present in dimeric form. This structure is specially adapted to the environment of the mucous membranes, which is characterized by constant contact with microorganisms, enzymes and potentially harmful substances. In this harsh environment, antibodies require additional protection and stability. Dimeric IgA is produced by plasma cells in mucosal lymphoid tissues. From there, the IgA is transported through the epithelial cells of the mucous membranes into the outer areas of the mucous membranes. During this transport, it is equipped with a secretory piece (pIgR) (see figure below), which gives it additional stability and protects it from enzymatic degradation. As a result, the dimeric IgA remains functional in the mucosal environment and can fulfill its protective function.

    Fig. 81: Transport and secretion of IgA: From dimeric IgA to secretory IgA (sIgA)

    1) The dimerized IgA produced by the plasma cells in the lamina propria (under the mucosa) binds to the poly-Ig receptor (pIgR), which is located on the basolateral surface of the epithelial cells (underneath the epithelial cell). The poly-Ig receptor is specifically designed to bind to polymerized immunoglobulins (such as dimeric IgA or pentameric IgM) that have a J-chain. 2) The poly-Ig receptor with the IgA dimer bound to it is then transported through the epithelial cell (transcytosis), i.e. from the basolateral side (below the epithelial cell) to the apical side (the side facing the mucosa). 3) As soon as the IgA dimer reaches the apical surface of the epithelial cell, part of the poly-Ig receptor is cleaved off and remains firmly bound to the IgA dimer as a secretory component (the secretory piece). Through this binding, the dimerized IgA becomes secretory IgA (sIgA). This cleavage occurs before release into the mucus layer. 4) The now fully formed sIgA is finally released into the mucus layer, where it performs its protective function by binding and neutralizing microorganisms.

    Dimeric IgA offers particularly efficient protection on the surface of the mucous membranes as its dimer structure enables it to bind better to pathogens and the mucosal layer. It can provide several antigen binding sites, which facilitates the neutralization of pathogens and prevents them from adhering to the epithelial cells.

    Small amounts of IgA are also found in the bloodstream, but mainly in monomeric form. As a monomer, IgA is smaller and can therefore circulate more easily through the bloodstream. This enables a rapid response to pathogens or antigens before they spread throughout the body. In the blood, the monomeric IgA thus fulfills a function as an „early defense” by being able to bind directly to pathogens.

    d)  Mucosal Immunity: Why IgG Is Unsuitable for This 

    In the mucus layer that lines the mucous membranes, the antibodies IgA and to a lesser extent IgM are particularly important for the immune defense, while IgG is generally not found here. The reason for this lies in the special structure and function of the immunoglobulins and the mechanism of transport through the epithelial cells.

    IgA, especially in its dimeric form, is specially adapted to protect the mucous membranes. It is produced by the plasma cells in the lamina propria under the mucosa and transported to the mucosal surface via the poly-Ig receptor (pIgR) on the epithelial cells. The pIgR binds specifically to the J-chain of dimeric IgA, which enables this antibody molecule to be safely transported through the epithelial cell. During this transport process, part of the pIgR is bound to the IgA as a secretory component, turning it into secretory IgA (sIgA). This secretory component protects the IgA from enzymatic degradation in the aggressive environment of the mucous membranes and thus enables a stable immune defense.

    In contrast, IgG, which only exists as a monomer, does not occur in the mucous membranes. IgG has no J-chain and therefore cannot bind to the poly-Ig receptor. IgG therefore lacks the ability to be transported into the mucous layer via this mechanism. IgG circulates mainly in the blood and tissue, where it performs systemic defense functions, while the mucosal immune defense is dependent on sIgA.

    IgM, which is present as a pentamer with a J-chain, can also be transported in small quantities through the pIgR into the mucus layer. Due to its structure, it is also well suited for protection in the mucous membranes. Nevertheless, sIgA remains the most important antibody in the mucus layer, which specifically neutralizes pathogens such as viruses and prevents them from entering the body.

    5.5.9. The Action Phase of Antibodies

    Once IgG antibodies have entered the bloodstream, they can reach almost any part of the body, including the lymph nodes and the sites where infections occur. IgA antibodies, on the other hand, mainly exert their protective effect on the mucous membranes, where they are produced locally and released directly into the mucous layer.

    The antibodies work in different ways to protect the body from infections:

    Recognition and binding: Antibodies recognize special structures on the surface of pathogens, known as antigens, and bind to them. This creates immune complexes (IC). This is the first step in rendering the pathogen harmless.

    Neutralization: By binding to the antigens, the antibodies block the dangerous parts of toxins and pathogens so that they cannot cause any further damage to the body.

    Fig. 82: Neutralization of a virus by antibodies

    1) The virus binds specifically to the ACE2 receptor, a protein found on the surface of many cells, especially in the lungs. This binding is the first step of infection that allows the virus to enter the cell. 2) After binding to the ACE2 receptor, the virus is taken up into the cell by receptor-mediated endocytosis. This process leads to the formation of an endosome that transports the virus particle into the cell. 3) The virus has successfully penetrated the cell membrane by endocytosis and is now inside the cell. Here the virus begins to use the cellular mechanisms to replicate and infect the cell. 4) Antibodies specifically recognize and bind to the virus, causing its neutralization. This binding prevents the virus from attaching to and infecting other cells and marks the virus for destruction by the immune system.

    Fig. 83: Neutralization of a bacterium by antibodies

    1) Bacteria attach to the cell surface with the help of adhesins and begin colonization. 2) Some bacteria are taken up by the cells and multiply in special vesicles inside the cell. 3) Antibodies bind to the adhesins of the bacteria and thus prevent them from adhering and being taken up into the cells.

    Marking for immune cells: Antibodies can mark pathogens so that certain immune cells, such as phagocytes, can recognize and destroy them more easily. This process is called opsonization.

    Fig. 84: Marking for immune cells

    The macrophage identifies the immune complex (IC) through specialized receptors on its surface that bind to the constant region of the attached antibodies. Once the immune complex is recognized, the macrophage engulfs the entire pathogen, forming a phagosome. This phagosome then fuses with lysosomes containing specialized digestive enzymes. Inside the resulting phagolysosome, both the pathogen and bound antibodies are broken down by these enzymes. The degraded proteins are processed into smaller components, which are then either repurposed by the cell or expelled as waste.

    Activation of the complement system: The binding of the antibodies can also trigger a cascade of reactions known as the complement system (as described in Chapter 5.4. ‚The complement system‘). This chain of reactions leads to the destruction of the labeled pathogens.

    Fig. 85: Activation of the complement system

    1) The complement protein C1 binds to the antibodies on the bacterial surface and starts the defense reaction. (In the classical pathway of complement activation by antibodies, at least two antibody molecules usually have to bind to the antigen. This binding brings the constant regions of the antibodies closer together, which is necessary for efficient binding of the first complement protein (C1)). 2) Complement proteins form the membrane attack complex (MAC), which drills holes in the cell membrane of the bacterium. 3) The resulting pores cause the bacterium to lose its stability and dissolve (lysis).

    Cell destruction by the immune system: In some cases, antibodies bind to infected cells or cancer cells and mark them for special immune cells, such as natural killer cells (NK cells). These immune cells recognize the marked cells and destroy them in a targeted manner. This process is known as ADCC (antibody-dependent cellular cytotoxicity).

    Fig. 86: Antibody-dependent cellular cytotoxicity

    1) An NK cell binds to an antibody that is attached to the antigen-MHC-I complex of an infected cell and releases cytotoxic granules. 2) The released substances penetrate the cell, perforate the membrane and trigger programmed cell death (apoptosis). 3) After cell death, apoptotic corpuscles remain, which are taken up and digested by a macrophage.

    Agglutination of pathogens: Agglutination is a process in which antibodies bind several pathogens (such as bacteria, viruses or foreign cells) at the same time, causing them to clump together. This agglutination makes it more difficult for the pathogens to move, multiply or infect cells. It also makes it easier for the immune system to recognize and eliminate these larger clumps. Macrophages and other phagocytes can absorb and digest the clumped pathogens more efficiently, as they are concentrated and easier to reach due to agglutination.

    Fig. 87: Agglutination of pathogens

    1) Antibodies bind multiple pathogens and clump them together, making it easier for the immune system to eliminate them. 2) Macrophages have an extraordinary ability to phagocytose. The membrane of a macrophage is flexible and can expand considerably to enclose even large particles. During phagocytosis, the membrane „flows” around the particles to be engulfed. Although agglutination can make the clumps appear large, macrophages are well equipped to ingest and digest such agglutinate complexes due to their flexible membrane and efficient digestive mechanisms. Agglutination is therefore a mechanism that increases the efficiency of the immune response by „packing” the pathogens together, making them more accessible to macrophages and other phagocytes.

    5.5.10. Regulatory T Cells and Their Role in the Immune System

    Regulatory T cells (Tregs) are specialized immune cells that play a key role in maintaining immune tolerance. Their main role is to prevent an excessive or misdirected immune response that could lead to autoimmune disease or tissue damage. Tregs suppress the activity of effector T cells (such as cytotoxic T cells and T helper cells) and B cells that produce antibodies.

    Tregs exert their suppressive function in various ways:

    Secretion of immunosuppressive cytokines: Tregs produce cytokines such as IL-10, TGF-β and IL-35, which have an anti-inflammatory effect and dampen the activity of effector T cells and other immune cells.

    Modulation of the metabolism: Tregs influence the metabolism of other immune cells by blocking access to important growth factors or energy sources, which restricts their activity.

    Direct cell contact: Tregs can transmit inhibitory signals to effector T cells via direct cell-cell contact, which blocks their function.

    Control of dendritic cells (DCs): Tregs also act on antigen-presenting cells such as dendritic cells (DCs) by downregulating their ability to activate effector T cells. This is done either by inhibiting the costimulatory molecules on the DCs that are necessary for the activation of effector T cells or by uptake of IL-2, an important growth factor that T cells require for their proliferation.

    Induced cell death: In some cases, Tregs can even trigger the programmed cell death (apoptosis) of overactive immune cells in order to prevent an excessive immune response.

    Tregs are able to dynamically adapt their number and activity to the respective requirements of the immune system. During an infection, they can initially be less active to enable an effective immune response. After the end of the infection, however, they are activated to downregulate the immune response and protect the tissue.

    Significance for autoimmunity and cancer
    A dysfunction of the Tregs can lead to autoimmune diseases, as the immune system is no longer sufficiently regulated and attacks the body’s own tissues. However, Tregs can weaken the immune response in cancer and thus help the tumor to evade the body’s own defenses.

    Regulatory T cells are therefore crucial for the fine-tuning and balance of the immune system, not only by specifically weakening the immune response, but also by reducing the risk of autoimmunity and maintaining tolerance to the body’s own tissues. This precise regulation is particularly important in the shutdown phase of the immune system, which begins after a successful immune response.

    5.5.11. Switch-Off Phase

    After fighting an infection, the immune system must be carefully downregulated to prevent damage to the body. If this shutdown process does not function correctly, autoimmune diseases or chronic inflammation can occur.

    Most immune cells activated during an infection die after their work is done, preventing damage to the body from an excess of immune cells. However, some cells survive and become what are known as memory cells, which help the body respond more rapidly to future infections. Immune cells can die in various ways, such as through apoptosis (programmed cell death) or necroptosis (a form of cell decay). These processes are essential for calming the immune system and restoring balance after an infection.

    Control of the immune response

    Regulatory T cells: After a successful immune response, regulatory T cells produce inhibitors that suppress plasma cells and killer cells, thereby stopping the immune reaction.

    Role of antigens: Antigens – foreign substances that trigger an immune response – typically disappear from the body after an infection. This signals to immune cells that their work is complete, and in the absence of antigens, many of these cells initiate their own death through apoptosis.

    However, if small amounts of antigens remain in the body, this can have various effects. On one hand, it may prolong the immune response, which can sometimes be beneficial to ensure the infection is fully eliminated. On the other hand, it can lead to unnecessary survival and persistent activation of immune cells, increasing the risk of chronic inflammation or autoimmune reactions.

    There are also situations where the presence of residual antigens helps maintain a certain level of immune activity, which can be especially important in cases of chronic infections or in tumor immunology. Here, a low, continuous antigenic stimulation can keep the immune system in a „state of vigilance”, providing protection against a recurrence of the disease.

    Overall, the impact of residual antigens strongly depends on the context: while in some cases it may be necessary and useful, in other cases it may lead to undesirable immunological reactions.

    Importance of interleukin-2 (IL-2): IL-2 is a messenger substance of the immune system that promotes the survival and proliferation of T cells. However, depending on the situation, IL-2 can also lead to the death of T cells, which shows how complex and finely tuned the regulation of the immune system is.

    Energy management in immune cells: Activated immune cells change their metabolism to adapt to the needs during an infection. For example, they utilise more glucose to gain energy. At the end of the immune response, they must return to a „resting mode” in order to become memory cells.

    5.5.12. Immunological Memory

    As we have learned, the immune response activates specialized cells to combat the pathogen. This process not only triggers acute defense mechanisms but also generates memory cells. These memory cells, consisting of long-lived T and B cells, store specific information about the pathogen and form the immunological memory. This memory enables the immune system to „remember” previously encountered pathogens and respond more quickly and effectively upon re-exposure. Unlike effector cells, which die during or shortly after infection, memory cells have a very long lifespan. Thus, immunological memory contributes to the development of long-lasting, specific immunity.

    T memory cells

    During an infection, the development of memory T cells begins in the early phases of the immune response. As soon as a naive T cell recognizes its specific antigen via an MHC complex on an antigen-presenting cell (APC), it gets activated and starts to rapidly proliferate. Within a few days, a single activated T cell can grow to thousands to millions of clones – this process is called clonal expansion. While some of these expanded T cells become effector T cells that are directly involved in fighting the pathogen, others differentiate into memory T cells.

    T memory cells are characterized by their long lifespan, often lasting for decades, and they retain the specific genetic information from the original T cell receptor recombination. They circulate between the blood and secondary lymphoid organs, such as lymph nodes and the spleen, constantly searching for a re-encounter with their specific antigen.

    If T memory cells encounter the same pathogen again, a rapid and effective immune response occurs within hours. Unlike naive T cells, they do not require constant activation by endogenous molecules, allowing them to respond swiftly and efficiently upon re-exposure.

    Moreover, memory T cells are generally more numerous than their naive counterparts. This abundance allows for a rapid response to re-exposure to the same pathogen, making the immune response so effective that often no symptoms of illness occur.

    B memory cells

    Following their activation, B cells undergo a phase of intensive proliferation, similar to T cells. Most of these cells develop into plasma cells that produce antibodies, such as IgG in the bloodstream or IgA on mucous membranes. However, some B cells differentiate into memory B cells, which are formed during affinity maturation and after the acute immune response has been completed.

    Memory B cells circulate through the bloodstream and secondary lymphoid organs, such as the lymph nodes and spleen, in search of their specific antigen. In their „dormant” state, they are ready to be activated quickly when they encounter the antigen again.

    Once memory B cells recognize their target antigen, they rapidly differentiate into plasma cells that produce either IgG antibodies in the blood or IgA antibodies on mucous membranes to neutralize the pathogen. This mobility and continuous monitoring of blood, mucous membranes and lymphoid tissues are crucial for their role in the secondary immune response.

    Remark
    The exact mechanisms that control the development, survival and control of memory cells are not yet fully understood. [Terminating the Immune Response]

    A very nice summary of the adaptive immune response can be found in these videos:
    Cellular Immunity – Adaptive Immunity part 1
    Humoral Immunity – Adaptive Immunity part 2

    5.6. Summary

    Fig. 88: The phases of the immune response during an infection

    The diagram illustrates the phases of the immune response during an infection, starting with the invasion of pathogens and ending with their elimination. It shows the time course of the infection (x-axis) and the number of pathogens in the body (y-axis) in relation to the immune response.

    Establishment of an infection: This is the initial phase of the infection, immediately after the pathogens have entered the body. During this phase, the pathogens begin to multiply and the body’s innate defense mechanisms, such as macrophages and natural killer cells, attempt to contain the infection. When the pathogens successfully overcome the first lines of defense, the infection becomes established. At this stage, the number of pathogens is still relatively low, but can increase rapidly.

    Activation phase: As soon as the number of pathogens exceeds a certain threshold, which is determined by the amount of antigen, the adaptive immune response begins. This phase involves the activation of T cells and B cells, which are specific immune cells that can specifically recognize and fight the pathogen. This phase lasts several days, as the immune system has to develop the appropriate defense mechanisms. The number of pathogens can continue to increase while the adaptive immune response is being prepared.

    Effector phase: In this phase, the adaptive immune response is fully activated. T cells and antibodies specifically attack the pathogens and destroy them. The number of pathogens peaks and then declines rapidly as the immune system gains control of the infection. This is the decisive phase in which the pathogen is finally eliminated.

    Memory phase: After the pathogen has been eliminated, the immune response enters the memory phase. In this phase, memory cells (specific T and B cells) remain in the body, which are prepared for a renewed infection with the same pathogen. These cells enable a faster and more effective immune response should the organism be confronted with the same pathogen again. The pathogens have been eliminated and the immune system has developed a „memory” for this specific pathogen.

    From the initial establishment of the infection to the activation and effector phases of the adaptive immune response, and finally to long-term memory formation, it becomes clear how the immune system reacts to pathogens and adapts to future infections. At the end of this process, the body is prepared and capable of responding more quickly and effectively to the same pathogen.

    One becomes immune.


    6. Hidden Defense – The Power of
    Cross-Immunity

    When our body comes into contact with a pathogen, it triggers an astonishingly complex defense reaction. Instead of relying on just one specific type of antibody, our immune system produces a variety of different antibodies that attack different parts of the pathogen.

    A foreign molecule (antigen) that the immune system recognizes often consists of several small sections, the so-called epitopes. These epitopes are specific areas on the surface of the antigen that are recognized by antibodies or T-cell receptors. Each epitope has a unique structure that can be bound by different antibodies. The immune system often focuses on the most important areas of the pathogen, such as the binding sites on host cells, like the spike protein, or other functionally important proteins that are important for virus structure and replication, such as membrane proteins.

    This leads to the production of not just antibodies targeting a single part of the virus, but a whole range of antibodies that attack different sections of the virus. This diverse immune response helps combat the pathogen in various ways and increases the chances of neutralizing it effectively.

    Fig. 89: Interaction of virus and immune system: structures, epitopes and antibodies

    1) This image shows a schematic representation of a virus with spike proteins protruding from its surface. These spike proteins, which are required for binding to host cells, are characteristic of some virus species. In addition, smaller membrane and envelope proteins are embedded in the viral envelope, which contribute to the stability and function of the virus. 2) Various epitopes are visible on the spike protein – specific areas to which antibodies can bind. Membrane and envelope proteins can also serve as target structures for antibodies. 3) Specific antibodies bind to the epitopes of the spike protein as well as to the membrane and envelope protein. Through targeted binding, the antibodies block the function of the virus and neutralize it.

    In the world of microbes, however, there is a constant race. Viruses and bacteria change in order to escape the immune system. They alter their surface structures so that they are recognized as „new”, making previous immune responses less effective.

    However, these changes to the surface structures are often minor. This means that only certain parts of the pathogen change, but not all. For example, if you were previously infected with a flu virus, it is possible that some of the antibodies formed can also bind to a slightly modified flu virus.

    This is where cross-immunity comes into play: even if the virus has mutated, some antibodies that were originally directed against the old pathogen can recognize similar areas of the new pathogen. This means that the immune system is also able to react to related viruses, even if they are slightly altered.

    Fig. 90: Comparison of old and new virus variants

    On the left is a schematic representation of an older virus with intact proteins (spike, envelope, and membrane proteins). On the right is the new virus, which exhibits altered epitopes in the spike and membrane proteins but has an unchanged envelope protein. In the center, antibodies are depicted that, despite the changes in the new virus, can still bind to certain epitopes of the spike protein as well as to the envelope protein.

    Cross-immunity is a fascinating concept that illustrates how our immune system responds not only to well-known pathogens but also to related pathogens that share similar characteristics. It refers to the body’s ability to be partially protected against related pathogens due to a previous infection with a specific pathogen. This can mean that a person may experience a milder illness or even complete protection when re-infected with a similar virus.

    Typically, the immune response in cross-immunity is somewhat weaker because the antibodies do not perfectly match the new virus. Their binding ability is often reduced, which means they are less effective at fully neutralizing the new virus. Nevertheless, this attenuated response can help alleviate the disease or bring the pathogen under control more quickly.

    When the immune system encounters a new virus variant that differs significantly, it begins to produce new and more specific antibodies. However, the pre-existing antibodies from cross-immunity can provide the body with a slight advantage by partially combating the pathogen until a more targeted defense is established.

    Cross-immunity impressively demonstrates how flexible and adaptable our immune system is in the constant race against pathogens.


    7. Key Takeaways

    A masterpiece of nature: Our immune system is the result of millions of years of evolution. It functions like a highly developed and powerful army that is constantly ready to protect us. It is constantly adapting and evolving to effectively counter new threats.

    NON-SELF vs. SELF: The basic principle of the immune system is to distinguish between the body’s own cells and foreign cells.

    Protected from birth:  From birth, humans have at least one immune cell for every potential pathogen on the planet.

    The role of lymph nodes: The adaptive immune response requires pathogens or their parts to enter the lymph nodes (or secondary lymphoid organs) in order to initiate the production of antibodies.

    Two types of immune protection: There is the systemic immune system, which protects the entire body with IgG antibodies, and the mucosal immune system, which defends the mucous membranes with IgA antibodies.

    Cross immunity: Cross-immunity describes the ability of the immune system to be protected against new, related pathogens as a result of a previous infection with a similar pathogen. This can provide an additional protective mechanism.


    8. Closing words

    The insights into our immune system presented here provide an exciting overview of the biological processes that protect our body from threats and ensure our survival. Even though we already know a lot about how the immune system works, much remains undiscovered and incompletely researched.

    An interesting example of the ongoing development of our knowledge is the concept of „trained immunity”. For a long time, innate immunity was considered rigid and unchangeable – a nonspecific defense line of the body primarily responding to acute threats. Unlike adaptive immunity, which is characterized by the memory of T and B cells, innate immunity seemed incapable of adapting or learning. However, recent research has shown that innate immunity can also develop a form of „memory”. Certain cells of the innate immune system, such as macrophages and natural killer cells, can be modified by previous encounters with pathogens, enabling them to respond more quickly and effectively in later infections. Epigenetic changes allow these cells to remain present in tissues for extended periods and support immune defense. [Innate immune cells are more adaptive than expected] This newly discovered potential expands our understanding of innate immunity and shows that this non-specific defense also has a remarkable ability to adapt.

    Even though we have not yet discovered and understood everything, we do understand one thing: this fascinating and invisible world within us is the key to our health and well-being, and it therefore deserves our ongoing attention and care.


    Sources (as of 06.11.2024)

  • Die Wunderwelt des Lebens: Zellen, Proteine und das Immunsystem

    Die Wunderwelt des Lebens: Zellen, Proteine und das Immunsystem

    Das Leben in seiner unglaublichen Vielfalt und Komplexität ist das Ergebnis eines faszinierenden Zusammenspiels unzähliger biologischer Prozesse und Strukturen, die oft im Verborgenen wirken. Jede Zelle in unserem Körper, so unscheinbar sie auch erscheinen mag, ist ein kleines Wunderwerk der Natur. Sie beherbergt eine Vielzahl von Proteinen, die wie winzige Maschinen unermüdlich daran arbeiten, das Leben zu bewahren. Diese Proteine sorgen nicht nur dafür, dass unsere Zellen ihre täglichen Aufgaben erfüllen, sondern spielen auch eine entscheidende Rolle im Schutz unseres Körpers.

    Unser Immunsystem, eine der beeindruckendsten Schöpfungen der Evolution, verteidigt uns gegen zahllose Bedrohungen – von eindringenden Mikroorganismen bis hin zu entarteten Zellen, die unsere Gesundheit gefährden können. Dieses Abwehrsystem ist ein komplexes Netz aus Zellen, Proteinen und chemischen Signalen, die gemeinsam den Unterschied zwischen Gesundheit und Krankheit ausmachen.

    In dieser Abhandlung werden wir uns auf diese „Wunderwelt des Lebens“ konzentrieren und insbesondere das Immunsystem in den Blick nehmen. Ziel dieser Ausarbeitung ist es, einen umfassenden und verständlichen Einblick in die Funktionsweise des Immunsystems zu vermitteln. Es empfiehlt sich, die Kapitel in der vorgegebenen Reihenfolge zu lesen, damit die Informationen schrittweise aufeinander aufbauen und ein tieferes Verständnis des Themas ermöglichen.

    Tauchen wir nun ein in diese Wunderwelt des Lebens, um zu verstehen, wie das Unsichtbare unser Leben bewahrt.

    1. Ein Blick unter die Haut – eine Reise ins Innere
    2. Die Zelle – der Urbaustein
    3. Proteine – die Bausteine des Lebens
    4. Vom Code zum Protein – zelluläre Mechanismen
    5. Das Schutzschild des Körpers – unser Immunsystem
    6. Verborgene Verteidigung – die Macht der Kreuzimmunität
    7. Wichtige Erkenntnisse zum Mitnehmen
    8. Schlusswort

    Vollständiges Inhaltsverzeichnis

    1. Ein Blick unter die Haut – eine Reise ins Innere
    2. Die Zelle – der Urbaustein
    3. Proteine – die Bausteine des Lebens
    4. Vom Code zum Protein – zelluläre Mechanismen
    4.1. Von Signalen zu Aktionen
    4.2. Die Proteinbiosynthese
    4.2.1. Transkription
    4.2.2. Translation

    4.3. Das Protein
    5. Das Schutzschild des Körpers – unser Immunsystem
    5.1. Ursprung der Immunzellen
    5.2. Mechanismen der Immunerkennung: FREMD vs. SELBST
    5.2. a) SELBST-Marker: MHC-Moleküle
    5.2. b) SELBST-Marker: Molekül CD47
    5.2. c) SELBST-Marker: Sialinsäure

    5.3. Die unspezifische Immunabwehr
    I – Erste Verteidigungslinie: mechanische und chemische Barrieren
    II – Zweite Verteidigungslinie: die weißen Blutkörperchen
    5.3. a) Granulozyten
    5.3. b) Makrophagen
    5.3. c) Dendritische Zellen
    5.3. d) Natürliche Killerzellen
    5.4. Das Komplementsystem
    5.5. Die spezifische Immunabwehr
    5.5.1. Schlüsselspieler der adaptiven Immunantwort
    5.5.1. a) Entwicklung und Reifung der Lymphozyten
    5.5.1. b) Humorale und Zelluläre Abwehrmechanismen
    5.5.1. c) Migration und Verteilung der Lymphozyten
    5.5.1. d) Struktur der lymphatischen Organe

    5.5.2. Naive B- und T-Zellen: Die Vielfalt der Immunantwort
    5.5.3. Die Rolle der antigenpräsentierenden Zellen (APCs)
    5.5.3. a) Antigenpräsentation über MHC-II-Moleküle
    5.5.3. b) Antigenpräsentation über MHC-I-Moleküle
    5.5.3. c) Dendritische Zellen wandern zu den Lymphknoten

    5.5.4. Die Bedeutung der Lymphknoten für die adaptive Immunantwort
    5.5.5. Erkennungsphase
    5.5.6. Aktivierungsphase
    5.5.6. a) T-Zell-Aktivierung
    5.5.6. b) B-Zell-Aktivierung

    5.5.7. Effektorphase
    5.5.7. a) T-Helferzellen
    5.5.7. b) Zytotoxische T-Zellen
    5.5.7. c) Plasmazellen

    III – Dritte Verteidungslinie: die Antikörper
    5.5.8. Arten von Antikörpern
    5.5.8. a) IgM – der erste Antikörper
    5.5.8. b) Klassenwechsel (Isotypenswitch) zu IgG
    5.5.8. c) IgA – die Schutzbarriere der Schleimhäute
    5.5.8. d) Schleimhautimmunität: Warum IgG dafür ungeeignet ist

    5.5.9. Die Wirkungsphase der Antikörper
    5.5.10. Regulatorische T-Zellen und ihre Rolle im Immunsystem
    5.5.11. Abschaltphase
    5.5.12. Gedächtnisphase
    5.6. Zusammenfassung
    6. Verborgene Verteidigung – die Macht der Kreuzimmunität
    7. Wichtige Erkenntnisse zum Mitnehmen
    8. Schlusswort


    1. Ein Blick unter die Haut – eine Reise ins Innere

    Der Organismus, der lebende Körper eines Menschen, ist ein faszinierendes Konstrukt, das auf mehreren Ebenen der Organisation funktioniert. Diese Organisationsstruktur ist das unsichtbare Band, das die Zellen verbindet, die Gewebe webt und die Organe formt.

    Abb. 1: Der Organismus ist die höchste Organisationsebene.

    Um das komplexe Zusammenspiel zu verdeutlichen, zoomen wir näher heran, beginnend mit einem Blick auf die Ebene der Organsysteme.

    Organismus ➔ Organsysteme

    Organsysteme sind essenzielle Einheiten im menschlichen Körper, die Struktur und Funktion miteinander verbinden. Zu den wichtigsten Organsystemen gehören das Herz-Kreislauf-System, das Atmungssystem, das Verdauungssystem, das Nervensystem, das Endokrine System (Hormonsystem), das Immunsystem, das Harnsystem und das Fortpflanzungssystem. Jedes dieser Systeme erfüllt eine einzigartige Funktion, die zur Gesamtfunktion des Organismus beiträgt.

    Abb. 2: Organisationsebene: Organsysteme

    Das Verdauungssystem ist für die Verdauung und Aufnahme von Nährstoffen verantwortlich. Die Aufgabe des Atmungssystems besteht darin, Sauerstoff aufzunehmen und Kohlendioxid zu entfernen. Das Herz-Kreislauf-System befördert Blut durch den Körper, um Nährstoffe und Sauerstoff zu den Zellen zu transportieren und Abfallprodukte zu entfernen.

    Ein Organsystem setzt sich aus einem einzelnen Organ oder einer Gruppe von Organen zusammen, die eng miteinander verbunden sind. Wenn wir näher heranzoomen, können wir die einzelnen Organe betrachten.

    Organismus ➔ Organsysteme ➔ Organe

    Organe sind wichtige Teile des Körpers, die bestimmte Aufgaben erledigen. Jedes Organ hat seine eigene klare Form und Funktion. Die verschiedenen Organe arbeiten zusammen wie ein gut eingespieltes Team. Beispiele für Organe sind das Herz, die Lunge, die Leber und das Gehirn.

    Abb. 3: Organisationsebene: Organe

    Das Herz pumpt Blut durch den Körper, während die Lunge für den Gasaustausch verantwortlich ist. Neben vielen anderen Aufgaben kontrolliert das Gehirn die Atmung und den Herzschlag. Der Magen zerkleinert und vermischt Nahrung, der Darm entnimmt der Nahrung die Nährstoffe, und die Leber unterstützt die Verdauung und entgiftet.

    Organe bestehen aus verschiedenen Geweben, die eng miteinander verbunden sind und zusammenarbeiten, um die Funktion des Organs zu unterstützen. Wenn wir noch weiter hineinzoomen, sehen wir die Gewebe, die das Organ bilden.

    Organismus ➔ Organsysteme ➔ Organe ➔ Gewebe

    Verschiedene Gewebe im Körper erfüllen unterschiedliche Aufgaben und sind auf die Bedürfnisse der Organe abgestimmt, die sie unterstützen. Indem sie zusammenarbeiten, ermöglichen sie eine Vielzahl von physiologischen Prozessen, einschließlich Bewegung, Sinneswahrnehmung, Verdauung und Immunabwehr.

    Es gibt vier Hauptarten von Geweben im menschlichen Körper: Muskelgewebe, Bindegewebe, Epithelgewebe und Nervengewebe.

    Abb. 4: Organisationsebene: Gewebe

    Um beim Beispiel des Herzens zu bleiben, ermöglicht das Muskelgewebe, Blut durch den Körper zu pumpen, während das Nervengewebe die elektrischen Signale steuert, die die Herzaktion regulieren. Das Bindegewebe bietet strukturelle Unterstützung und verbindet die verschiedenen Teile des Herzens miteinander, während das Epithelgewebe die inneren Oberflächen des Herzens auskleidet und schützt.

    Bei der Lunge ermöglicht das Epithelgewebe den Gasaustausch. Das Bindegewebe unterstützt die Struktur und verbindet die verschiedenen Gewebekomponenten miteinander. Das glatte Muskelgewebe in den Wänden der Atemwege ermöglicht die Regulation des Luftstroms. Schließlich übermittelt das Nervengewebe Signale an das Gehirn, um die Atembewegungen zu steuern.

    Gewebe bestehen aus einer Vielzahl von Zellen, die sich zusammenschließen, um gemeinsam eine bestimmte Aufgabe zu erfüllen. Noch näher herangezoomt können wir die einzelnen Zellen erkennen.

    Organismus ➔ Organsysteme ➔ Organe ➔ Gewebe ➔ Zellen

    Zellen sind die grundlegenden Bausteine von Geweben. Sie sind oft auf spezifische Funktionen innerhalb des Gewebes spezialisiert. Sie können unterschiedliche Formen, Größen und Strukturen haben, die an ihre jeweilige Funktion angepasst sind. Zum Beispiel sind Zellen in Muskelgewebe auf die Kontraktion spezialisiert, während Zellen in Epithelgewebe auf den Schutz und die Absorption spezialisiert sind.

    Abb. 5: Organisationsebene: Zellen

    Neben den spezialisierten Zellen, die spezifische Aufgaben im Gewebe erfüllen, gibt es auch einen besonderen Zelltyp: die Stammzellen. Im Gegensatz zu anderen Zellen im Körper haben Stammzellen die erstaunliche Fähigkeit, sich in viele verschiedene Zelltypen zu verwandeln. Sie sind wie die „Rohlinge“ des Körpers – noch nicht auf eine bestimmte Aufgabe festgelegt und voller Möglichkeiten. Wenn der Körper sie braucht, können Stammzellen zu Muskelzellen werden, zu Nervenzellen oder zu Zellen des Immunsystems.

    Zellen in Geweben kommunizieren und interagieren miteinander über komplexe Signalwege und Moleküle. Diese Kommunikation ist entscheidend für die Koordination von Zellaktivitäten und die Aufrechterhaltung der Funktion des Gewebes als Ganzes.

    In jeder Zelle findet eine Vielzahl von Prozessen statt, die für das Wachstum, die Entwicklung und das Überleben des Organismus von entscheidender Bedeutung sind. Zellen sind die Urbausteine aller lebenden Organismen. Alles Leben, von den kleinsten Mikroorganismen bis hin zu den größten Tieren, besteht aus diesen winzigen, aber unglaublich komplexen Einheiten. Jede Zelle ist eine erstaunliche Welt für sich, gefüllt mit Molekülen und chemischen Reaktionen, die das Leben ermöglichen.

    Man kann sagen: Das Leben beginnt mit der Zelle.


    2. Die Zelle – der Urbaustein

    Das Leben auf unserem Planeten ist ein faszinierendes Wunder, das auf mikroskopischer Ebene in der Zelle seinen Anfang nimmt. Diese winzigen Bausteine des Lebens sind die Grundlage für alles Lebendige.

    Der Mensch entwickelt sich aus zwei winzigen Zellen – der Eizelle und der Samenzelle. In den ersten Wochen nach der Befruchtung durchläuft der Embryo einen Prozess, bei dem er von einer befruchteten Eizelle zu einer Vielzahl von Zellen wird, aus denen sich alle Organe und Gewebe bilden. Ab dem Zeitpunkt, an dem der Embryo als Fötus bezeichnet wird – normalerweise ab der achten Schwangerschaftswoche – sind die meisten Organe und Gewebe angelegt. Von da an konzentriert sich die Entwicklung hauptsächlich auf das Wachstum und die Reifung dieser Strukturen. Es wird geschätzt, dass ein Neugeborenes aus etwa 20 bis 30 Billionen Zellen besteht, während ein durchschnittlicher erwachsener Mensch etwa 30 bis 40 Billionen Zellen hat. Eine Studie, veröffentlicht im Fachjournal PNAS, unterteilt den menschlichen Körper in 60 Gewebesysteme, 400 Hauptzelltypen und 1264 separate Zellgruppen.

    Eine kurze und übersichtliche Einführung in den Zell-Aufbau kommt von der amerikanischen Agentur für digitale Kommunikation Nucleus Medical Media. [Spektrum] Sie soll uns auf die nächsten Erläuterungen einstimmen.

    Obwohl der menschliche Körper aus vielen verschiedenen Zelltypen besteht, haben sie alle eine ähnliche Grundstruktur. Jede Zelle ist von einer schützenden Hülle, der Zellmembran, umgeben. Im Inneren der Zelle, in einer gelartigen Substanz namens Zytoplasma, finden sich viele kleine, spezialisierte Strukturen, die Organellen genannt werden. Man kann sich diese Organellen wie winzige Maschinen oder Werkstätten innerhalb der Zelle vorstellen, die jeweils eine spezielle Aufgabe erfüllen.

    Eines dieser wichtigen Organellen ist der Zellkern. Der Zellkern ist wie das Steuerzentrum der Zelle – er enthält die Erbinformationen (DNA) und gibt den anderen Organellen Anweisungen, wie sie arbeiten sollen. Es gibt eine Ausnahme: rote Blutzellen. Diese Zellen sind so auf ihre Aufgabe spezialisiert, dass sie keinen Zellkern mehr haben.

    Abb. 6: Die tierische Zelle (eine Form der eukaryotischen Zellen)

    Leben, wie wir es verstehen, erfordert im Wesentlichen drei grundlegende Elemente. Erstens eine Zellmembran, die das Innere der Zelle von der äußeren Umgebung abgrenzt. Zweitens ist ein Stoffwechsel notwendig, um Energie aus der Umgebung zu gewinnen. Und drittens braucht es genetische Information, um lebenswichtige Prozesse zu steuern und zu regulieren. Alle lebenden Organismen basieren auf diesen drei Prinzipien: Zellhülle, Stoffwechsel und Information, die zusammenkommen müssen, um Leben zu ermöglichen. Dabei ist die Information, die in der DNA enthalten ist, die wichtigste Zutat für das Leben. [Woher kommt das Leben?]

    In den Tiefen der Zelle verbirgt sich die DNA – das Geheimnis des Lebens. Sie offenbart sich als ein beeindruckendes Geflecht von Molekülen. Diese Moleküle tragen den genetischen Code, der die Vielfalt und Komplexität des Lebens bestimmt. Man nennt die DNA deshalb auch das Buch des Lebens, denn sie enthält die Anweisungen für die Entwicklung und Funktionsweise jedes Organismus auf unserem Planeten. Durch das Lesen der DNA entstehen Proteine, die die eigentlichen Ausführenden dieser Anweisungen sind. Proteine formen die Strukturen, katalysieren Reaktionen und übertragen Signale, die das Leben in all seinen Formen ermöglichen. Sie sind die Bausteine, aus denen alles Lebendige besteht  und die Werkzeuge, die uns zum Leben erwecken.

    Von der Zelle über die DNA bis hin zu den Proteinen – das Leben ist ein atemberaubendes Zusammenspiel von Molekülen und Prozessen, die eine unendliche Vielfalt von Formen und Funktionen hervorbringen. In jedem winzigen Teilchen, das das Leben ausmacht, liegt eine tiefe Faszination und ein unermessliches Wunder verborgen.


    3. Proteine – die Bausteine des Lebens

    Proteine, die durch das Lesen der DNA entstehen, sind die wahren Architekten des Lebens. Sie erfüllen eine Vielzahl von wichtigen Funktionen im Körper und sind für nahezu alle biologischen Prozesse verantwortlich. Zum einen dienen Proteine als strukturelle Bausteine und bilden die Grundlage für Zellen, Gewebe und Organe. Sie verleihen den Zellen ihre Form und Festigkeit und ermöglichen es ihnen, ihre Funktionen ordnungsgemäß auszuführen.

    Darüber hinaus sind Proteine auch an enzymatischen Reaktionen beteiligt, die den Stoffwechsel antreiben und lebenswichtige chemische Prozesse im Körper regulieren. Des Weiteren dienen Proteine als Botenstoffe und ermöglichen die Kommunikation zwischen Zellen und Geweben. Hormone sind beispielsweise Proteine, die wichtige Signale im Körper übertragen und eine Vielzahl von physiologischen Reaktionen steuern.

    Neben ihrer strukturellen, enzymatischen und signalisierenden Rolle tragen Proteine auch zur Immunität bei, indem sie als Antikörper fungieren und den Körper vor Krankheiten und Infektionen schützen. Sie erkennen und binden sich an fremde Substanzen wie Bakterien und Viren und markieren sie für die Zerstörung durch das Immunsystem.

    Proteine machen bis zu 40% des Volumens des Zytoplasmas aus. Bisher gibt es keine genaue Zahl, wie viele verschiedene Proteine der menschliche Körper herstellen kann. Wissenschaftler schätzen, dass es im menschlichen Körper etwa 20.000 verschiedene Proteine gibt, aber einige Studien deuten darauf hin, dass es sogar noch mehr sein könnten. Die folgenden schematischen Darstellungen verschiedener Proteine sind einer Animation von BioVisions an der Harvard University entnommen. Eine Echtaufnahme eines Proteins kann man hier sehen.

    Abb. 7: Schematische Darstellung von Proteinen [BioVisions]

    Aber wie und wo entstehen diese Allrounder?


    4. Vom Code zum Protein – zelluläre Mechanismen

    4.1. Von Signalen zu Aktionen
    4.2. Die Proteinbiosynthese
    4.2.1. Transkription
    4.2.2. Translation
    4.3. Das Protein

    4.1. Von Signalen zu Aktionen

    Inmitten des lebhaften Treibens in der Zelle finden entscheidende Prozesse statt, die das Leben aufrechterhalten und ermöglichen. Ein solcher Prozess ist die Synthese von Proteinen, den Bausteinen des Lebens. Diese komplexe Aufgabe erfordert präzise Koordination und eine Reihe von Schritten, die sich harmonisch in der Zelle abspielen. Diese Abläufe in der Zelle werden durch das Regulationssystem koordiniert.

    Das Regulationssystem erkennt über äußere Signale oder Veränderungen innerhalb der Zelle, wann ein Bedarf an bestimmten Proteinen besteht. Um die benötigten Proteine zu beschaffen, aktiviert das Regulationssystem sogenannte Transkriptionsfaktoren. Diese Transkriptionsfaktoren können als eine Art Produktionsgehilfen betrachtet werden, von denen es in der Zelle eine große Vielfalt gibt, schätzungsweise Tausende. Jeder von ihnen hat spezifische Berechtigungen und einen genauen Arbeitsauftrag. Transkriptionsfaktoren selbst sind regulatorische Proteine.

    Aktivierte spezifische Transkriptionsfaktoren machen sich nun auf den Weg zum Zellkern, dem Ort, an dem sich das Buch des Lebens – die DNA – befindet. Dieses Buch enthält alle Informationen zu den Proteinen, die die Zelle herstellen kann, in Tausenden von Genen. Daher ist es ein sehr kostbares Buch, denn ohne das Buch des Lebens weiß die Zelle nicht, wie sie die Proteine herstellen soll. Und ohne Proteine kann die Zelle nicht existieren. Das Buch des Lebens wird deshalb an einem sicheren Ort, dem Zellkern, aufbewahrt, um sicherzustellen, dass es nicht beschädigt wird. Man kann sich diesen sicheren Ort wie einen Tresorraum vorstellen, der nur mit einem gültigen Zugangscode betreten werden kann.

    Abb. 8: DNA befindet sich im Zellkern

    Die Kernmembran ist der Sicherheitswall, der den Zellkern umgibt. In ihr befinden sich winzige Kernporen, die Torwächter. Dadurch erlangt der Zellkern die Fähigkeit zu kontrollieren, wer in den Kern hinein oder aus ihm heraus darf. Nur wer sich ausweisen und ein entsprechendes Erkennungssignal vorweisen kann, darf die Kernporen passieren. [„Rush-hour“ am Zellkern, „Wie zappelnde Tentakel unser Erbgut schützen“]

    Abb. 9: Aktivierte Transkriptionsfaktoren auf dem Weg in den Zellkern

    Die aktivierten Transkriptionsfaktoren können die Kernporen passieren und ihren Arbeitsauftrag im Zellkern ausführen. Dort suchen sie gezielt nach spezifischen DNA-Sequenzen in der Nähe des Startpunkts des Zielgens, der als Promotor bekannt ist. Diese DNA-Sequenzen dienen als Ankerpunkte, an denen die Transkriptionsfaktoren binden können, um die Transkription der entsprechenden Gene zu aktivieren (oder zu unterdrücken). Durch die Bindung der Transkriptionsfaktoren an diese spezifischen Stellen wird die RNA-Polymerase angezogen, und damit startet der Prozess der Proteinbiosynthese.

    Abb. 10: Aktivierte Transkriptionsfaktoren binden an die Promotorregion des Zielgens

    4.2. Die Proteinbiosynthese

    Den Prozess der Protein-Herstellung nennt man Proteinbiosynthese und dieser läuft in zwei Teilschritten ab, der Transkription und der Translation.

    4.2.1. Transkription

    Als Transkription wird die Umwandlung der DNA in RNA bezeichnet. Für die Herstellung der RNA ist ein Enzym, die RNA-Polymerase verantwortlich. Ein Enzym ist ein Protein, das biochemische Reaktionen im Körper beschleunigt.

    Nachdem die Transkriptionsfaktoren an den Promotor gebunden haben, fungieren sie als Plattform oder Ankerpunkt für die RNA-Polymerase. Sie setzt sich auf die Transkriptionsfaktoren oder in deren unmittelbare Nähe und initiiert den Prozess.

    Abb. 11: RNA-Polymerase setzt sich auf die Transkriptionsfaktoren

    Dieser beginnt mit der Entwindung des DNA-Doppelstrangs, wodurch die DNA-Sequenz zugänglich wird. Die RNA-Polymerase bewegt sich entlang der DNA-Sequenz und liest sie ab.

    Abb. 12: Transkription

    Während dieses Prozesses synthetisiert die RNA-Polymerase einen RNA-Strang unter Verwendung von RNA-Nukleotiden, den Bausteinen der RNA. Die Polymerase bildet komplementäre Basenpaare zwischen den RNA-Nukleotiden und den Basen der DNA-Sequenz. Dabei erfolgt die Basenpaarung zwischen Adenin (A) und Uracil (U), sowie zwischen Cytosin (C) und Guanin (G). Der Unterschied zur DNA besteht darin, dass in der RNA-Kopie die Base Thymin (T) durch die Base Uracil (U) ersetzt wird, was ein charakteristisches Merkmal von RNA ist.

    Sobald ein Leseschritt ausgeführt wurde, schließt die RNA-Polymerase die DNA wieder hinter sich. Der Leseprozess endet am Terminator, dem Abschnitt am Ende des Zielgens. Die erzeugte RNA und die Polymerase lösen sich nun von der DNA. Bei diesem Vorgang bleibt die DNA, das „kostbare Buch des Lebens“, unverändert und unbeschädigt.

    Die entstandene RNA ist eine Kopie des ursprünglichen DNA-Codes.

    Abb. 13: RNA ist eine Kopie der DNA

    Die RNA, die direkt aus der Transkription entsteht, wird als prä-mRNA bezeichnet und muss weiteren Verarbeitungsschritten unterzogen werden, um zur reifen mRNA zu werden, die für die Translation bereit ist. Diese Verarbeitung umfasst das Spleißen, bei dem Introns (nicht-kodierende Regionen eines Gens) entfernt und Exons (kodierende Regionen eines Gens) miteinander verbunden werden.

    Introns und Exons sind nicht konstant, sondern variabel, und spielen eine wichtige Rolle bei der Regulation und Vielfalt der Gene. Das bedeutet, dass je nach Art des Proteins, das produziert werden soll, unterschiedliche Exons kombiniert und Introns entfernt werden können. Durch diesen Prozess können Zellen eine Vielzahl von Proteinen herstellen, die unterschiedliche Funktionen ausüben.

    Zusätzlich werden am 5′-Ende der mRNA ein 5′-Cap und am 3′-Ende ein Poly-A-Schwanz (eine Reihe von Adenin-Nukleotiden) hinzugefügt.

    Abb. 14: Modifikation der prä-mRNA zur reifen mRNA

    Die reife mRNA, die den genetischen Bauplan für das zu produzierende Protein enthält, diffundiert durch die Kernporen in das Zytoplasma der Zelle, wo sie von den Ribosomen gefunden wird. Dies leitet den nächsten Schritt ein – die Translation.

    Abb. 15: Die mRNA verlässt den Zellkern

    Eine anschauliche kurze Visualisierung des Transkriptionsprozesses bietet Biotech Made Easy an, das den Vorgang leicht verständlich macht.

    Originalquelle: Biotech Made Easy (Stand August 2024)

    Eine weitere kurze Animation der Transkription kommt vom DNA Learning Center. Sie zeigt den Prozess in Echtzeit.

    4.2.2. Translation

    Die Translation bezeichnet den Prozess, bei dem die genetische Information, die in der mRNA gespeichert ist, in eine Abfolge von verknüpften Aminosäuren umgewandelt wird, um Proteine zu bilden. Diese wichtige Transformation findet an den Ribosomen statt, den Proteinfabriken der Zelle. Die Ribosomen fungieren dabei als Maschinen, die die mRNA lesen und die Aminosäuren entsprechend den Anweisungen der mRNA anordnen.

    Bei Eukaryoten wie dem Menschen unterscheidet man zwei Arten von Ribosomen: zwischen freien und gebundenen Ribosomen (siehe Abb.15). Ein beträchtlicher Teil der Ribosomen befindet sich frei im Zytoplasma, während andere an die Membran des endoplasmatischen Retikulums (ER) gebunden sind. Die Ribosomen, die an das ER gebunden sind, produzieren Proteine, die entweder für den Export aus der Zelle oder für den Einbau in die Zellmembran bestimmt sind. Sowohl freie als auch membrangebundene Ribosomen haben eine ähnliche Struktur und Funktionsweise. Für unsere weitere Betrachtung konzentrieren wir uns auf die freien Ribosomen.

    Das Ribosom bindet an die mRNA und bewegt sich dann entlang der mRNA-Sequenz vom 5′-Ende zum 3′-Ende. Während dieses Prozesses gleitet die mRNA durch das Ribosom wie ein Fließband und wird schrittweise abgetastet. Dabei werden jeweils drei aufeinanderfolgende Basen, die als Codons bezeichnet werden, gelesen. Wenn das Ribosom das Start-Codon (AUG) erreicht, beginnt die Translation.

    Während der Translation liest das Ribosom jedes Codon auf der mRNA und ordnet ihm eine entsprechende Transfer-RNA (tRNA) mit der passenden Aminosäure zu. Die tRNA trägt eine spezifische Sequenz von drei Nukleotiden, die als Anticodon bezeichnet wird und komplementär zum Codon der mRNA ist.

    Abb. 16: Das Ribosom bewegt sich entlang der mRNA und liest Codons, an die jeweils komplementäre, mit Aminosäuren beladene tRNA binden. Diese tRNA liefern die passenden Aminosäuren für die entstehende Proteinkette.

    Wenn das Anticodon einer tRNA mit dem entsprechenden Codon der mRNA basenpaart, wird die Aminosäure, die von dieser tRNA getragen wird, an die wachsende Peptidkette gebunden. Peptide sind kurze Ketten von Aminosäuren, und diese Aminosäuren sind die Bausteine der Proteine. Dieser Prozess wiederholt sich, während das Ribosom entlang der mRNA wandert und jedes Codon abtastet.

    Die Aminosäuren, die aneinandergereiht werden, sind durch Peptidbindungen miteinander verbunden und bilden so die Peptidkette des entstehenden Proteins. Die Translation endet, wenn das Ribosom ein Stoppcodon (UAA, UAG oder UGA) auf der mRNA erreicht. An diesem Punkt wird die entstandene Peptidkette – das noch unfertige Protein – freigesetzt, und das Ribosom löst sich von der mRNA.

    Abb. 17: Das Ribosom bildet eine Peptidkette.

    Auch hier kommt eine kurze und anschauliche Visualisierung des Translationsprozesses von Biotech Made Easy.

    Originalquelle: Biotech Made Easy (Stand August 2024)

    4.3. Das Protein

    Das Protein ist zunächst eine Kette aus einer bestimmten Abfolge von Aminosäuren. Damit das neu hergestellte Protein funktionsfähig wird, muss es sich noch in die korrekte dreidimensionale Form falten. Die räumliche Anordnung der Aminosäurenkette, seine spezifische dreidimensionale Form, ist entscheidend dafür, dass das Protein seine Rolle im Körper erfüllen kann – ob als Enzym (ein Molekül, das chemische Reaktionen beschleunigt), Strukturprotein (das den Zellen und Geweben ihre Form und Festigkeit verleiht) oder Hormon (ein Signalstoff, der verschiedene Körperfunktionen reguliert).

    Jedes Protein hat seinen eigenen Bauplan, der bestimmt, wie es sich falten wird, um seine Funktion zu erfüllen. Die Aminosäurenkette bildet die Primärstruktur, aus der sich wiederholende Muster ergeben, die als Sekundärstruktur bezeichnet werden. Elektrostatische Anziehungskräfte und andere chemische Bindungen führen dann verschiedene Teile des Proteins zusammen und bringen es in seine endgültige Form – die Tertiärstruktur. Manchmal bilden mehrere dieser Proteine sogar komplexe Strukturen, die als Quartärstruktur bezeichnet werden.

    Abb. 18: Schematische Darstellung der Primär-, Sekundär-, Tertiär- und Quartärstruktur von Proteinen

    Der Weg zur richtigen Faltung ist jedoch nicht immer einfach. Manchmal können sich Proteine falsch falten, besonders wenn sie zu nahe beieinander liegen. In solchen Momenten treten die Helfer auf den Plan – die Chaperone, die selbst Proteine sind. Sie schützen die Peptidkette vor unerwünschten Interaktionen und fördern den Faltungsprozess.

    Einige Proteine sind jedoch zu groß, um sich allein zu falten. Auch hier kommen die Chaperone zum Einsatz, die die Proteine zu einem weiteren Helfer bringen – einem zylinderförmigen Gebilde namens Chaperonin. Hier finden die Proteine eine sichere Umgebung, in der sie sich in Ruhe falten können, ohne gestört zu werden. Die fertig gefalteten Proteine sind nun bereit, ihre Arbeit in oder außerhalb der Zelle aufzunehmen.

    Das Video „Chaperone – die Proteinfaltung“ illustriert den Prozess der Proteinfaltung auf anschauliche Weise.

    Fehler bei der Proteinfaltung

    Der Prozess der Proteinfaltung ist von entscheidender Bedeutung für die biologische Funktionalität der Zelle und wird sorgfältig reguliert. Ein fehlerhaft gefaltetes Protein kann seine normale Funktion verlieren oder sogar schädlich sein. Fehler bei der Proteinfaltung können schwerwiegende Auswirkungen auf zelluläre Prozesse haben und verschiedene Krankheiten verursachen. Beispiele hierfür sind die Amyloidose, Alzheimer, Parkinson oder Chorea Huntington.

    Das „Proteinfaltungsproblem“

    Das „Proteinfaltungsproblem“ stellt eines der zentralen Rätsel der Biologie dar. Es bezieht sich auf die Schwierigkeit, die dreidimensionale Struktur eines Proteins vorherzusagen, basierend auf der Sequenz seiner Aminosäuren. Proteine bestehen aus Hunderten von Aminosäuren, die sich zu komplexen räumlichen Strukturen zusammenfalten, und die DNA-Sequenz allein gibt keine direkte Information über diese Struktur. Die Herausforderung der Proteinstrukturvorhersage besteht darin, aus den genetischen Informationen auf die räumliche Anordnung der Aminosäuren zu schließen. Das Ausmaß dieser Herausforderung wird deutlich, wenn man bedenkt, dass die Anzahl der theoretischen Möglichkeiten, wie sich ein Protein falten könnte, bevor es seine endgültige 3D-Struktur annimmt, enorm ist.

    Seit mehr als 50 Jahren arbeiten Wissenschaftler verschiedener Disziplinen daran, dieses Rätsel zu lösen. Eine wegweisende Entwicklung in diesem Bereich ist die Schaffung von „AlphaFold“ durch Deepmind, eine KI, die die Proteinstrukturvorhersage mit bisher unerreichter Genauigkeit bewältigt. Diese Errungenschaft könnte das Verständnis der Proteinfaltung revolutionieren.

    Dennoch ist der genaue Ablauf der Proteinfaltung noch nicht geklärt und stellt einen aktuellen Forschungsgegenstand der Biochemie dar.

    Proteine: Ihre Lebensdauer und Regeneration

    Wie jedes Produkt hat auch ein Protein eine begrenzte Lebensdauer. Sobald ein Protein seine Funktion erfüllt hat oder beschädigt ist, wird es abgebaut. Dieser kontinuierliche Prozess findet in allen Zellen des Körpers statt.

    Hierbei kommt ein spezielles Enzym, das Proteasom, zum Einsatz. Das Proteasom zerschneidet das Protein in kleinere Fragmente (Peptide), die dann weiter in einzelne Aminosäuren zerlegt werden. Diese Aminosäuren können erneut verwendet werden, um neue Proteine herzustellen. Auf diese Weise wird sichergestellt, dass fehlerhafte oder nicht mehr benötigte Proteine entfernt und die Ressourcen der Zelle effizient genutzt werden.

    Quelle: Myeloma UK

    Proteinabbau und seine Verbindung zum Immunsystem

    Der Abbau von Proteinen ist ein essenzieller Prozess, der weitreichende Auswirkungen auf verschiedene Systeme im Körper hat, einschließlich des Immunsystems. Welche spezifische Rolle dieser Prozess im Immunsystem spielt, wird in den kommenden Kapiteln näher betrachtet.


    5. Das Schutzschild des Körpers – unser Immunsystem

    Unser Immunsystem ist das beeindruckende Erbe der Evolution. Es ist eine faszinierende Mikrowelt, die im Verborgenen wirkt – eine Armee von Immunzellen, die sich im Laufe der Jahrmillionen zu Meisterwerken der Anpassung entwickelt hat. Diese winzigen Kämpfer stehen Tag und Nacht bereit, um uns vor den unzähligen Bedrohungen zu schützen, die wir oft gar nicht wahrnehmen. Sie wachen über uns, während wir schlafen, kämpfen für uns, ohne dass wir es merken, und sind letztlich der Grund, warum wir leben und atmen können.

    Um das Überleben zu sichern, haben alle höheren Lebewesen ein Immunsystem entwickelt, das Krankheitserreger abwehrt, Infektionen verhindert oder eindämmt. Das Immunsystem besteht aus einer Vielzahl von Zellen, Geweben und Organen, die zusammenarbeiten, um den Körper zu schützen.

    Zu den wichtigsten Komponenten gehören die weißen Blutkörperchen (Leukozyten), die in verschiedenen Formen und mit unterschiedlichen Funktionen existieren, sowie die lymphatischen Organe wie das Knochenmark, die Thymusdrüse, die Milz, die Mandeln und die Lymphknoten.

    Abb. 19: Bestandteile des Immunsystems

    Zusätzlich verfügt das Immunsystem über ein eigenes Transportsystem, das Lymphsystem, welches Lymphe (eine wässrige, leicht milchige Flüssigkeit) und Immunzellen über Lymphgefäße durch den Körper transportiert und ihnen ermöglicht, Infektionsherde schnell zu erreichen und zu bekämpfen.

    Das Zusammenspiel der Immunzellen ist äußerst komplex und wird hier vereinfacht dargestellt. Obwohl diese Darstellung bereits anspruchsvoll ist, sind die tatsächlichen Abläufe im Körper noch deutlich vielschichtiger und bis heute nicht vollständig verstanden. Um das Verständnis zu erleichtern, konzentrieren wir uns auf die zentralen Immunzellen und deren wichtigste Prozesse.

    5.1. Ursprung der Immunzellen
    5.2. Mechanismen der Immunerkennung: FREMD vs. SELBST
    5.3. Die unspezifische Immunabwehr
    5.4. Das Komplementsystem
    5.5. Die spezifische Immunabwehr
    5.6. Zusammenfassung

    Das Grundprinzip des Immunsystems beruht auf der Unterscheidung zwischen FREMD und SELBST, ein Mechanismus, der von Geburt an vorhanden ist.

    Um sich gegen Eindringlinge zu wehren, muss der Körper zwischen fremden Mikroorganismen und körpereigenem Gewebe unterscheiden können. Nicht alles Fremde ist gefährlich, daher muss das Immunsystem auch zwischen harmlosen Fremdkörpern (wie Staub, Pollen oder Nahrungsmittel) und gefährlichen Fremdkörpern differenzieren. Alles was krank macht, ist für den Körper gefährlich – sprich pathogen. Mit dem Begriff Pathogene fasst man alle Fremdkörper zusammen, die eine Krankheit hervorrufen können. Zu den Pathogenen zählen Bakterien, Viren, Pilze und Parasiten.

    Anhand der Strukturen auf der Oberfläche von Pathogenen oder anderen fremden Stoffen erkennt das Immunsystem sogenannte Antigene. Der Begriff ‚Antigen‘ bedeutet ‚Antikörper erzeugend‘ (antibody generating). Diese Antigene sind typischerweise Proteine oder Polysaccharide und dienen als ‚Erkennungsmarker‘, die dem Immunsystem signalisieren, dass es sich um einen Fremdkörper handelt.

    Die Antwort des Immunsystems auf alles FREMDE ist eine Immunreaktion. Sie umfasst eine Vielzahl von Prozessen, die darauf abzielen, die Bedrohung durch Fremdstoffe zu beseitigen und die Integrität des Körpers zu erhalten.

    Die richtige Balance zwischen Toleranz und Abwehrreaktion sowie die Stärke der Reaktion sind für das Immunsystem eine echte Herausforderung. Dies funktioniert nur, wenn die einzelnen Komponenten des Immunsystems harmonisch zusammenarbeiten.

    Im Laufe der Evolution haben sich dafür koordinierte Abwehrsysteme entwickelt, die zusammenarbeiten. Generell unterscheidet man zwischen der unspezifischen und spezifischen Immunabwehr. Das unspezifische Immunsystem ist die erste Verteidigungslinie des Körpers gegen Krankheitserreger. Spezielle Immunzellen reagieren nach einem vorgegebenen Programm auf Bedrohungen. Das spezifische Immunsystem ist hingegen hochspezialisiert und erkennt sowie bekämpft spezifische Krankheitserreger gezielt.

    Bevor wir näher auf die Immunabwehr eingehen, werfen wir einen Blick auf den Ursprung der Immunzellen und darauf, welche Mechanismen dem Immunsystem zur Verfügung stehen, um zwischen fremden und körpereigenen Zellen zu unterscheiden. Hierbei werden wichtige Begriffe und Konzepte eingeführt, die im weiteren Verlauf immer wieder eine Rolle spielen.

    5.1. Ursprung der Immunzellen

    Blutzellen und Immunzellen entstehen aus hämatopoetischen Stammzellen im Knochenmark. Diese Stammzellen sind der gemeinsame Ursprung sowohl für Zellen des Blutes als auch des Immunsystems, da Immunzellen ein wesentlicher Bestandteil des Blutes sind. Die Differenzierung dieser Stammzellen verläuft entweder über die myeloische oder die lymphatische Linie, was zur Entstehung verschiedener Zellen des unspezifischen und spezifischen Immunsystems führt.

    Bei Erwachsenen findet die Blutbildung (Hämatopoese) vorwiegend in den Knochen des Beckens, Brustbeins, der Rippen und Teilen der Wirbelsäule statt. Diese Knochen enthalten rotes Knochenmark, das die Stammzellen beherbergt, aus denen sowohl Blut- als auch Immunzellen hervorgehen. Bei Kindern hingegen erfolgt die Blutbildung zusätzlich in den langen Knochen der Arme und Beine, wie dem Oberschenkel- und Oberarmknochen. Mit zunehmendem Alter wird dieses Knochenmark durch fettreiches, gelbes Knochenmark ersetzt, wodurch sich die Blutbildung hauptsächlich auf das Becken und die Wirbelsäule konzentriert.

    Abb. 19-A: Aus hämatopoetischen Stammzellen im Knochenmark entwickeln sich alle Blutzellen und Immunzellen.

    Wie in der Abbildung dargestellt, entstehen die Immunzellen aus zwei Hauptlinien:

    Myeloische Linie: Diese Linie führt zur Bildung von Zellen des angeborenen Immunsystems, darunter:

    • Neutrophile Granulozyten
    • Eosinophile Granulozyten
    • Basophile Granulozyten
    • Mastzellen
    • Monozyten (aus denen sich Makrophagen und Dendritische Zellen entwickeln)

    Lymphatische Linie: Diese Linie bildet die Zellen des adaptiven Immunsystems:

    • T-Lymphzyten
    • B- Lymphzyten

    Natürliche Killerzellen stammen ebenfalls aus der lymphatischen Linie, sind jedoch Teil des angeborenen Immunsystems.

    5.2. Mechanismen der Immunerkennung:
    FREMD vs. SELBST

    Die Unterscheidung zwischen FREMD und SELBST erfolgt hauptsächlich durch spezialisierte Zellen des Immunsystems, die gezielt die Oberflächen von Zellen scannen – sowohl die des eigenen Körpers als auch die von Pathogenen. Da Zellen weder Augen noch Ohren haben, müssen sie sich berühren, um festzustellen, ob ein Protein zu einem Freund oder Feind gehört. Dafür verfügen sie über eine Vielzahl von Rezeptoren.

    Körpereigene Zellen tragen sogenannte SELBST-Marker auf ihrer Oberfläche. Diese Marker sind spezielle Moleküle oder Rezeptoren, die vom Immunsystem erkannt und normalerweise nicht angegriffen werden.

    Pathogene hingegen besitzen spezifische Strukturen auf ihrer Oberfläche, die auf körpereigenen Zellen nicht vorhanden sind. Auch fehlerhaft mutierte körpereigene Zellen verraten sich durch Veränderungen auf ihrer Oberfläche. Diese Strukturen können als FREMD-Marker interpretiert werden, die das Immunsystem dazu veranlassen, eine Abwehrreaktion auszulösen.

    Abb. 20:  Immunsystem unterscheidet zwischen SELBST und FREMD

    Doch wie kommunizieren die Zellen des Immunsystems miteinander, um eine koordinierte Reaktion auf Bedrohungen sicherzustellen? Die Antwort liegt in den Botenstoffen, die Zytokine und Chemokine genannt werden.

    Zytokine sind kleine Proteine, die wie Signalleuchten wirken und das Verhalten von Immunzellen steuern. Sie regulieren das Wachstum, die Aktivierung und die Funktion von Immunzellen und spielen eine entscheidende Rolle bei der Steuerung von Entzündungsreaktionen. Je nach Bedarf können sie die Immunantwort verstärken oder auch dämpfen.

    Chemokine wiederum lenken die Wanderung der Immunzellen durch den Körper. Sie fungieren als Wegweiser, die Immunzellen gezielt an den Ort der Infektion oder Entzündung locken. So stellen sie sicher, dass die Abwehrkräfte genau dort aktiv werden, wo sie gebraucht werden.

    SELBST-Marker

    SELBST-Marker, auch Autoantigene genannt, dienen als Kennzeichen für körpereigenes Gewebe. Das Immunsystem lernt während seiner Entwicklung, diese Marker zu erkennen und zu tolerieren, um Autoimmunreaktionen zu vermeiden. Dafür hat das Immunsystem mehrere Mechanismen, von denen hier drei wichtige vorgestellt werden:

    a) SELBST-Marker: MHC-Moleküle
    b) SELBST-Marker: Molekül CD47
    c) SELBST-Marker: Sialinsäure
    a) SELBST-Marker: MHC-Moleküle

    Ein wichtiges Beispiel für SELBST-Marker sind MHC-Moleküle. Der Begriff MHC steht für den Haupthistokompatibilitätskomplex (engl. Major Histocompatibility Complex) und bezeichnet spezielle Proteine auf der Zelloberfläche, die als Rezeptoren fungieren. Diese Rezeptoren präsentieren vor allem körpereigene Proteinfragmente. Dadurch signalisiert die Zelle dem Immunsystem, dass sie zum Körper gehört und keine Bedrohung darstellt.

    MHC-Moleküle können jedoch auch fremde Proteinfragmente präsentieren. Diese stammen meist von Krankheitserregern oder erkrankten Zellen, wie zum Beispiel von Viren infizierten Zellen. Indem solche fremden Fragmente auf der Zelloberfläche angezeigt werden, kann das Immunsystem infizierte oder abnorme Zellen erkennen und eine entsprechende Abwehrreaktion einleiten.

    Major weist auf die große Bedeutung dieser Gene für die Immunerkennung hin.
    Histocompatibility setzt sich aus ‚histo‘ (Gewebe) und ‚compatibility‘ (Verträglichkeit) zusammen und bezieht sich darauf, wie gut Gewebe zwischen verschiedenen Individuen kompatibel oder verträglich sind. MHC spielt eine wesentliche Rolle bei Organtransplantationen.
    Complex bezieht sich auf die Gruppe von Genen, die zusammenarbeiten und eine komplexe Funktion erfüllen.

    Man unterscheidet zwei Hauptklassen von MHC-Molekülen:

    • MHC Klasse I-Moleküle sind auf nahezu allen kernhaltigen Zellen des Körpers zu finden.
    • MHC Klasse II-Moleküle sind hauptsächlich auf speziellen Immunzellen zu finden.

    Die folgende vereinfachte Grafik zeigt den Unterschied zwischen beiden Klassen. Sowohl MHC-I- als auch MHC-II-Moleküle sind in der Zellmembran verankert und präsentieren Proteinfragmente (Peptide), die als Antigene dienen. Ein struktureller Unterschied besteht darin, dass MHC-Klasse-I-Moleküle eine einzige Verankerung in der Zellmembran haben, während MHC-Klasse-II-Moleküle zwei Verankerungen besitzen.

    Generell dienen MHC-Komplexe der Antigenpräsentation, indem sie dem Immunsystem Informationen über den Zustand der Zelle liefern.

    Abb. 21:  MHC-Moleküle

    Antigenpräsentation

    MHC-I präsentiert Antigene, die aus dem Inneren der Zelle stammen. Wie im Abschnitt ‚4.3. Das Protein‘ erwähnt, bauen Zellen kontinuierlich alte oder beschädigte Proteine ab. Dabei zersetzen Proteasome diese Proteine in kleinere Fragmente, sogenannte Peptide. Diese Peptide können von körpereigenen Proteinen stammen und signalisieren dem Immunsystem, dass die Zelle gesund ist. Wenn die Zelle jedoch mit einem Virus infiziert ist oder anderweitig abnormal wird, präsentiert das MHC-I-Molekül Peptide von fremden oder veränderten Proteinen. Dies alarmiert das Immunsystem, dass die Zelle möglicherweise gefährlich ist und beseitigt werden muss.

    MHC-Klasse-I-Moleküle werden von allen kernhaltigen Zellen exprimiert.

    Abb. 22:  MHC-Klasse-I-Moleküle

    Ganz links ist eine gesunde Zelle, die über ein MHC-Klasse-I-Molekül ein eigenes, normales Peptid präsentiert. Dies zeigt, dass die Zelle gesund und nicht infiziert ist. Das MHC-I-Molekül signalisiert dem Immunsystem, dass es keinen Handlungsbedarf gibt. In der Mitte ist eine virusinfizierte Zelle, die ebenfalls ein MHC-Klasse-I-Molekül trägt, jedoch ein fremdes Peptid präsentiert, das von einem Virus stammt. Dieses virale Peptid zeigt dem Immunsystem, dass die Zelle infiziert ist, was eine Immunantwort auslösen kann. Rechts ist eine Krebszelle, die über ein MHC-Klasse-I-Molekül ein verändertes Peptid präsentiert. Dieses Peptid ist durch genetische Mutationen im Zuge der Krebsentstehung verändert worden. Es signalisiert dem Immunsystem, dass die Zelle abnormal ist und entfernt werden sollte.

    MHC-II hingegen präsentiert Antigene, die von außerhalb der Zelle stammen. MHC-II-Moleküle werden nur von spezialisierten Immunzellen (wie Makrophagen, dendritischen Zellen und B-Zellen) exprimiert. Diese Zellen nehmen fremdes Material, wie Bakterien oder andere Erreger, auf, zerlegen es in kleinere Fragmente (Antigene) und präsentieren diese dann an der Zelloberfläche. Die so präsentierten Antigene aktivieren bestimmte Immunzellen, die eine gezielte Immunantwort koordinieren.

    Abb. 23: MHC-Klasse-II-Moleküle

    MHC-Moleküle ermöglichen es dem Immunsystem, zwischen körpereigenen und fremden oder veränderten Zellen zu unterscheiden. Dies ist entscheidend, um gesunde Zellen zu schützen und gleichzeitig eine Immunreaktion gegen potenziell schädliche Eindringlinge oder abnorme Zellen auszulösen.

    Die kurze Animation zur Antigenpräsentation: MHC Klasse I vs. MHC Klasse II veranschaulicht anschaulich die zuvor erklärten Zusammenhänge.

    b) SELBST-Marker: Molekül CD47

    Ein weiterer wichtiger SELBST-Marker auf der Oberfläche von Zellen ist das Molekül CD47. Dieses Molekül fungiert als ein ‚Don’t eat me‘-Signal, was bedeutet, dass es Immunzellen daran hindert, die Zelle zu zerstören.

    CD47 spielt eine entscheidende Rolle bei der Regulation der Immunantwort und dem Schutz von Blutzellen. Im Gegensatz zu MHC-Klasse-I-Molekülen, die nur auf kernhaltigen Zellen zu finden sind, kommt CD47 auf allen Zelltypen vor, einschließlich kernloser Zellen wie Erythrozyten (rote Blutkörperchen) und Thrombozyten (Blutplättchen).

    CD47 bindet an ein Rezeptorprotein namens SIRPα (Signal Regulatory Protein Alpha), das auf der Oberfläche von Immunzellen vorhanden ist. Diese Bindung sendet ein Signal, das die Immunzelle davon abhält, die Zelle anzugreifen. Dadurch wird sichergestellt, dass gesunde, körpereigene Zellen nicht vom Immunsystem zerstört werden.

    Abb. 24: Ein Erythrozyt signalisiert der Immunzelle über CD47: Don’t-eat-me.

    Wenn der CD47-Marker fehlt oder nicht richtig funktioniert, kann die Zelle als „fremd“ oder „verändert“ erkannt werden. Dies führt dazu, dass Immunzellen diese Zellen angreifen und beseitigen.

    Abb. 25: Ohne CD47 kein Don’t-eat-me-Signal. Wenn Erythrozyten altern und CD47 verlieren, werden sie von Makrophagen erkannt und abgebaut.

    CD47-Moleküle unterscheiden sich nicht so stark von Mensch zu Mensch wie die MHC-Klasse-I-Moleküle. Sie haben bei den meisten Menschen eine relativ konservierte Struktur, was bedeutet, dass es weniger Variationen gibt. Diese Konservierung ist wichtig, da CD47 eine grundlegende Funktion in der Immunregulation und Zellinteraktion hat.

    Aus diesem Grund funktioniert eine Bluttransfusion in der Regel einfacher als eine Organtransplantation. Bei einer Bluttransfusion müssen nur wenige Antigene (wie die Blutgruppenmerkmale) berücksichtigt werden, während es bei einer Organtransplantation eine hohe Variabilität in den MHC-Klasse-I-Molekülen gibt, die eine starke Immunantwort auslösen können.

    c) SELBST-Marker: Sialinsäure

    Ein weiterer bedeutender SELBST-Marker auf der Zelloberfläche ist Sialinsäure. Sialinsäuren sind eine Gruppe von Zuckermolekülen, die auf den Oberflächen von Zellen vorkommen und eine wichtige Rolle bei der Zell-Zell-Kommunikation spielen. Alle körpereigenen Zellen tragen Sialinsäure auf ihrer Oberfläche.

    Spezielle Rezeptoren auf der Oberfläche von Immunzellen können die Sialinsäuren erkennen und an ihnen binden. Diese Sialinsäure-bindenden Rezeptoren werden als Siglecs (Sialic acid-binding immunoglobulin-type lectins) bezeichnet. Wenn Sialinsäuren an Siglecs binden, senden sie inhibierende (hemmende) Signale in die Immunzelle. Das hält die Immunzelle davon abhält, die Zelle anzugreifen. Dieser Mechanismus schützt körpereigene Zellen vor Angriffen durch das Immunsystem.

    Abb. 26: Siglec-Rezeptor der Immunzelle bindet an die Sialinsäure der körpereigenen Zelle.

    Kombination dieser SELBST-Marker

    Eine Zelle kann sowohl MHC-Moleküle, CD47 als auch Sialinsäure gleichzeitig auf ihrer Oberfläche tragen. Jede dieser Molekülgruppen erfüllt eine wichtige Funktion, um die Zelle als körpereigen zu kennzeichnen und vor einer unnötigen Immunantwort zu schützen. Während MHC vor allem der Antigenpräsentation dient, sorgen CD47 und Sialinsäure dafür, dass Zellen nicht von Immunzellen angegriffen oder eliminiert werden. Diese Marker wirken also in Kombination, um das Immunsystem effizient zu steuern.

    5.3. Die unspezifische Immunabwehr

    Unser Immunsystem überwacht den Körper fortwährend auf das Vorhandensein von Fremdstoffen und Zellveränderungen. Sobald etwas als Gefahr erkannt wird, startet die Abwehrreaktion. Die unspezifische Immunantwort setzt dabei besonders schnell ein – innerhalb von Minuten bis wenigen Stunden ist sie vollständig aktiviert.

    Diese Form der Immunabwehr ist nicht auf bestimmte Erreger spezialisiert. „Unspezifisch“ bedeutet, dass auf jede erkannte Bedrohung eine allgemeine Standardreaktion erfolgt; Krankheitserreger werden unabhängig von ihrer Art auf die gleiche Weise bekämpft. Das unspezifische Immunsystem ist bereits bei der Geburt vorhanden, weshalb es auch als natürliches oder angeborenes Immunsystem bezeichnet wird. Im ersten Schritt versucht der Organismus, das Eindringen von Krankheitserregern zu verhindern oder zumindest zu erschweren.

    I – Erste Verteidigungslinie: mechanische und chemische Barrieren
    II – Zweite Verteidigungslinie: die weißen Blutkörperchen
    5.3. a) Granulozyten
    5.3. b) Makrophagen
    5.3. c) Dendritische Zellen
    5.3. d) Natürliche Killerzellen
     I – Erste Verteidigungslinie: mechanische und chemische Barrieren 

    Die erste Verteidigungslinie unseres Körpers gegen Krankheitserreger besteht aus mechanischen und chemischen Barrieren.

    Mechanische Barrieren

    Zu den mechanischen Barrieren zählen die Haut und alle Schleimhäute. Die Haut, die Grenze zwischen Körperinnerem und äußerer Umwelt, ist der wichtigste Schutz unseres Körpers gegen Krankheitserreger. Sie besteht aus mehreren Schichten, die das Eindringen von Pathogenen verhindern. Die äußerste Schicht, die Epidermis, erneuert sich regelmäßig. Abgestorbene Hautzellen werden ständig abgestoßen und durch neue Zellen ersetzt. Dieser Erneuerungsprozess trägt dazu bei, an der Haut haftende Mikroorganismen zu entfernen.

    Schleimhäute befinden sich in vielen Bereichen unseres Körpers, einschließlich der Nase, des Mundes, des Rachens, der Lunge und des Verdauungstrakts. Sie produzieren Schleim, eine klebrige Substanz, die Krankheitserreger einfängt und entfernt. Beispielsweise fängt der Schleim in unserer Nase Staub und Mikroorganismen ein, die wir einatmen, und verhindert so, dass sie in unsere Lunge gelangen.

    Abb. 27:  Schleimhaut der Atemwege

    Schleimhautzellen besitzen viele Flimmerhärchen (Zilien), die wie dichter Rasen nebeneinander liegen. Becherzellen produzieren unentwegt Schleim, der die Flimmerhärchen umgibt und die Oberfläche der Schleimhaut bedeckt. In dieser zähflüssigen Schleimschicht verfangen sich leicht Fremdpartikel wie Viren, Bakterien oder Staub.

    Die Flimmerhärchen bewegen sich wellenartig, um die Fremdpartikel, die in den Schleim geraten, aus den Atemwegen zu befördern. Ähnlich wie ein Förderband schieben die Flimmerhärchen die Schleimschicht mitsamt den Fremdkörpern in Richtung Rachen. Dort wird das Sekret durch Niesen oder Husten nach außen befördert oder verschluckt. Dieser Selbstreinigungsmechanismus ist ständig aktiv.

    Chemische Barrieren

    Zusätzlich blockieren chemische Stoffe wie Säuren, Enzyme oder Schleim die Anlagerung von Krankheitserregern. Einige Bereiche unseres Körpers, wie die Haut und der Magen, haben ein saures Milieu. Diese saure Umgebung ist für viele Mikroorganismen ungünstig und kann ihr Wachstum hemmen oder sie abtöten. Vor allem im Säurebad des Magens werden viele Krankheitserreger unschädlich gemacht.

    Enzyme sind Proteine, die chemische Reaktionen katalysieren. Einige Enzyme in unserem Körper, wie Lysozym in unserem Speichel und Tränen, können die Zellwände von Bakterien abbauen und sie so abtöten. Wie bereits erwähnt, produzieren unsere Schleimhäute Schleim, der Krankheitserreger einfängt. Aber Schleim dient auch als chemische Barriere. Er enthält antimikrobielle Substanzen wie Immunglobuline, die Krankheitserreger neutralisieren können.

    Obwohl die mechanischen und chemischen Barrieren unseres Körpers äußerst effektiv sind, um das Eindringen von Krankheitserregern zu verhindern, können einige Erreger dennoch diese Barrieren überwinden. Sobald Krankheitserreger die ersten Barrieren durchdrungen haben, tritt unser Körper in eine weitere Verteidigungslinie ein.

     II – Zweite Verteidigungslinie: die weißen Blutkörperchen 

    Gelingt es den Krankheitserregern, die erste Verteidigungslinie zu überwinden und in den Körper einzudringen, bleiben sie nicht lange unbemerkt. Spezialisierte Immunzellen wie Granulozyten, Makrophagen, dendritische Zellen und natürliche Killerzellen stehen zur Abwehr bereit. Diese Zellen gehören zu den weißen Blutkörperchen, den Leukozyten.

    Granulozyten, Monozyten und natürliche Killerzellen zirkulieren im Blut und wandern bei Bedarf ins Gewebe. Wenn Monozyten ins Gewebe einwandern, entwickeln sie sich zu Makrophagen oder dendritischen Zellen, die dann dort ansässig sind und ihre Immunfunktion übernehmen.

    Abb. 28:  Leukozyten im Blut und im Gewebe

    5.3. a) Granulozyten

    Granulozyten sind eine Untergruppe der weißen Blutkörperchen, die sich durch charakteristische Granula – kleine, körnchenartige Strukturen im Zytoplasma – auszeichnen. Diese Granula enthalten verschiedene Substanzen, die bei der Immunabwehr und anderen Prozessen freigesetzt werden. Zu den Granulozyten zählen neutrophile, eosinophile und basophile Granulozyten, die jeweils unterschiedliche Aufgaben im Immunsystem übernehmen, insbesondere bei der Bekämpfung von Infektionen und allergischen Reaktionen. In der weiteren Beschreibung konzentrieren wir uns auf die neutrophilen Granulozyten, da sie mit einem Anteil von 50-70 % der Leukozyten im menschlichen Blut die zahlreichsten Immunzellen sind.

    Neutrophile Granulozyten, kurz Neutrophile, zirkulieren kontinuierlich im Blutkreislauf und gehören zu den ersten Immunzellen, die auf eine Infektion reagieren. Dringen Krankheitserreger in den Körper ein, werden chemotaktische Signale freigesetzt, die Neutrophile an den Infektionsort locken. Daraufhin verlassen sie die Blutbahn und wandern ins Gewebe ein, wo sie innerhalb weniger Minuten den Infektionsherd erreichen können.

    Abb. 29:  Neutrophile Granulozyten wandern zum Infektionsort.

    Vor Ort erkennen sie Pathogene mit ihren Mustererkennungsrezeptoren (PRRs, engl. Pattern Recognition Receptors) die spezifische Pathogen-assoziierte molekulare Muster PAMPs (engl. Pathogen-associated molecular patterns) auf Eindringlingen wie Bakterien, Viren und Pilzen identifizieren. Ihre PRRs erkennen auch Schaden-assoziierte molekulare Muster (DAMPs,engl. Damage-associated molecular patterns), die von geschädigten oder gestressten Zellen freigesetzt werden.

    Abb. 30: Neutrophiler Granulozyt bindet an ein Bakterium.

    Neutrophile Granulozyten beseitigen Eindringlinge oder kranke Zellen, indem sie diese aufnehmen und zerstören. Dabei umschließen sie den Erreger in einem membranumhüllten Bläschen, dem sogenannten Phagosom. Nach der Aufnahme verschmelzen die Granula der Neutrophilen mit dem Phagosom. Diese Granula enthalten Enzyme und antimikrobielle Substanzen, die den eingeschlossenen Erreger abbauen und abtöten. Die verbleibenden Abbauprodukte, die nicht weiterverwertet werden können, werden anschließend aus den Neutrophilen freigesetzt. Diese Reste können von anderen Immunzellen, wie Makrophagen, aufgenommen und weiterverarbeitet werden.

    Abb. 31: Phagozytose: Neutrophiler Granulozyt verschlingt und verdaut Bakterium

    Zusätzlich beseitigen Neutrophile auch zerstörte Gewebezellen. Dieser gesamte Prozess, bei dem die Zellen Fremdkörper und geschädigte Zellen einverleiben und abbauen, wird als Phagozytose bezeichnet.

    Das Wort Phagozytose stammt aus dem Griechischen und setzt sich aus zwei Teilen zusammen: Phagein bedeutet „essen“ oder „verschlingen“ und Kytos bedeutet „Zelle“ oder „Behälter“. Der Begriff „Phagozytose“ beschreibt also wörtlich das „Zellfressen“ oder „Verschlingen durch Zellen“. Daher werden Fresszellen auch als Phagozyten bezeichnet.

    Neutrophile haben eine relativ kurze Lebensdauer und sterben nach der Phagozytose und Verdauung von Pathogenen oft ab. Dieser Prozess, genannt Apoptose (programmierter Zelltod), hilft dabei, die Entzündungsreaktion zu regulieren.

    Wenn viele Neutrophile in einem infizierten Bereich sterben, sammeln sich ihre Überreste zusammen mit den verdauten Pathogenen und Zelltrümmern an. Diese Ansammlung von toten Zellen und Abbauprodukten bildet Eiter. Eiter ist eine zähe, gelbliche oder grünliche Flüssigkeit, die oft in infizierten Wunden oder Abszessen gefunden wird. Auch apoptotische (abgestorbene) Neutrophile werden von Makrophagen aufgenommen und verdaut, wodurch das umliegende Gewebe gereinigt und die Heilung unterstützt wird.

    In einigen Fällen setzen Neutrophile netzartige Strukturen frei, die aus DNA und antimikrobiellen Proteinen bestehen. Diese NETs (Neutrophil Extracellular Traps) fangen Pathogene ein und töten sie ab, indem sie ihre Bewegung und Vermehrung verhindern.

    Abb. 32: Neutrophiler Granulozyt setzt ‚Neutrophil Extracellular Traps‘ (NETs) frei und löst sich danach auf.

    Dieses kurze Animationsvideo zeigt sehr schön die Funktionsweise der Neutrophilen.

    Neutrophile arbeiten eng mit anderen Immunzellen wie Makrophagen und dendritischen Zellen zusammen, indem sie Signalmoleküle freisetzen. Diese Signalmoleküle, wie Chemokine und Zytokine, rekrutieren und aktivieren weitere Immunzellen zum Ort der Infektion. Damit tragen Neutrophile wesentlich zur Entzündungsreaktion bei. Ihre rasche Reaktion und Fähigkeit zur effektiven Pathogenbekämpfung macht sie zu einer entscheidenden Komponente der angeborenen Immunantwort.

    5.3. b) Makrophagen

    Makrophagen sind große Fresszellen, deren Name sich vom griechischen ‚Macro‘ für groß und ‚Phage‘ für Fresser ableitet. Es gibt verschiedene Arten von Makrophagen.

    Residente Makrophagen sind fest im Gewebe verankert. Rekrutierte Makrophagen entstehen aus den im Blut zirkulierenden Monozyten. Wenn Monozyten mit Zytokinen (Botenstoffen) in Kontakt kommen, wandern sie aus dem Blut ins Gewebe und differenzieren sich dort zu Makrophagen. Einmal im Gewebe, bleiben sie oft stationär und patrouillieren umher, auf der Suche nach Krankheitserregern und abgestorbenen Zellen.

    Abb. 33: Rekrutierte Makrophagen

    Makrophagen erkennen Krankheitserreger durch spezielle Proteine auf deren Oberfläche, die Pathogen-assoziierte molekulare Muster (PAMPs). Diese Oberflächenproteine der Erreger passen in die Mustererkennungsrezeptoren (PRRs) der Makrophagen wie ein Schlüssel in ein Schloss. Auch Zelltrümmer oder abgestorbene Zellen bilden spezifische ‚eat-me‘-Signale, die von Makrophagen auf ähnliche Weise erkannt werden. Sobald der Krankheitserreger oder Zellabfall erkannt wurde, bindet die Makrophage an ihn, umschließt ihn mit ihrer beweglichen Membran und leitet die Phagozytose ein.

    Abb. 34: Eine Makrophage erkennt, bindet und umschließt ein Pathogen zur Zerstörung.

    Bei der Phagozytose nimmt die Makrophage den Erreger oder Zelltrümmer durch Einstülpen in sich auf und bildet ein membranumhülltes Bläschen, das Phagosom. Dieses Phagosom fusioniert mit einem Lysosom, wodurch ein Phagolysom entsteht. Im Phagolysom werden die aufgenommenen Partikel durch die Verdauungsenzyme des Lysosoms abgebaut. Hier kannst du dir Makrophagen in Aktion anschauen.

    Abb. 35: Während der Phagozytose wird der Erreger in einem membranumhülltes Bläschen, dem Phagosom (1), eingeschlossen. Das Phagosom verschmilzt mit dem Lysosom (2), das Verdauungsenzyme enthält. Im resultierenden Phagolysosom (3) wird der Erreger durch die Verdauungsenzyme abgebaut.

    Die Phagozytose ist ein uralter Mechanismus, der bis zu den einzelligen Eukaryoten wie Amöben zurückreicht, und bietet ein anschauliches Beispiel dafür, wie sich das Immunsystem über Millionen von Jahren entwickelt hat.

    Makrophagen konzentrieren sich hauptsächlich auf das „Fressen“ von Krankheitserregern und das „Aufräumen“ von Zelltrümmern. Dabei entsteht jedoch auch die Möglichkeit der Antigenpräsentation.

    Während des Abbaus werden kleinere Fragmente freigesetzt, darunter potenzielle Antigene, die an MHC-Klasse-II-Moleküle gebunden und auf der Zelloberfläche präsentiert werden. Diese Antigenpräsentation ist entscheidend für die Aktivierung anderer Immunzellen, insbesondere der T-Zellen. Die Antigen-MHC-II-Komplexe werden den T-Zellen präsentiert, die daraufhin die spezifische Immunantwort einleiten – ein Prozess, auf den wir in den kommenden Abschnitten noch ausführlicher eingehen werden.

    Abb. 36: Nach der Verdauung des Erregers werden Abfallstoffe durch Exozytose (ein Vorgang, bei dem unerwünschte Substanzen in Bläschen verpackt und aus der Zelle transportiert werden) aus der Makrophage ausgeschieden. Gleichzeitig binden einige der entstandenen Antigenfragmente an MHC-Klasse-II-Moleküle und werden zur Zelloberfläche transportiert. Dort können andere Immunzellen die Antigen-MHC-II-Komplexe erkennen und so eine spezifische Immunantwort einleiten.

    Viele weitere kleinere Moleküle, die durch den Verdauungsprozess entstehen, wie Aminosäuren, Zucker und Lipide, können von der Makrophage als Nährstoffe wiederverwendet werden.

    Andere Abfallprodukte und unverdauliche Reste werden in Vesikel verpackt und aus der Zelle ausgeschieden. Dies verhindert die Ansammlung von Abfall innerhalb der Makrophage und ermöglicht ihr, weiter zu arbeiten. Einige der unverdaulichen Reste können letztlich über verschiedene Ausscheidungsprozesse des Körpers entfernt werden, wie beispielsweise über den Urin, den Stuhl oder durch Schwitzen. Dies erfolgt nach weiterem Abbau und Transport durch das lymphatische System oder die Blutbahn zu den entsprechenden Organen wie den Nieren oder dem Darm.

    Makrophagen sind sehr effiziente Phagozyten und können eine große Anzahl von Pathogenen und Zellabfällen aufnehmen und abbauen. Innerhalb weniger Stunden kann eine Makrophage Hunderte von Bakterien phagozytieren.

    Da in der Regel nicht nur ein einziger Krankheitserreger in den Körper eindringt, rufen Makrophagen weitere Immunzellen zu Hilfe. Dazu sondern sie Zytokine ab, die die Immunantwort verstärken.

    Die Zytokine bewirken, dass sich die Blutgefäße in der Umgebung der Infektionsstelle erweitern. Dies führt zu einer erhöhten Durchblutung, wodurch mehr Immunzellen, Sauerstoff und Nährstoffe zur betroffenen Stelle gelangen. Dadurch kommt es zu einer Schwellung (Ödem) im Gewebe, was auch die Rötung und Wärme erklärt, die oft mit Entzündungen einhergehen.

    Abb. 37: Weitere Immunzellen finden über Zytokine die Erreger.

    Im weiteren Verlauf stoßen Makrophagen den Heilungsprozess an, indem sie Wachstumsfaktoren freisetzen, die die Zellteilung und -differenzierung fördern.

    Makrophagen spielen eine zentrale Rolle in der unmittelbaren Immunabwehr. Ihre Hauptaufgaben sind die Bekämpfung und Beseitigung von Pathogenen sowie das Aufräumen von Zelltrümmern durch Phagozytose. Dazu besitzen Makrophagen etwa 60 verschiedene Arten von Rezeptoren, die es ihnen ermöglichen, eine Vielzahl von Krankheitserregern zu erkennen. Zusätzlich übernehmen sie die Antigenpräsentation, um die spezifische Immunantwort zu unterstützen, obwohl dies eher eine ergänzende Funktion ist. Im Gegensatz dazu sind dendritische Zellen spezialisierter auf die Sammlung und Präsentation von Antigenen, um gezielt die adaptive Immunabwehr zu aktivieren.

    5.3. c) Dendritische Zellen

    Dendritische Zellen sind spezialisierte Immunzellen, die eine Schlüsselrolle bei der Auslösung der spezifischen Immunantwort einnehmen. Der Name leitet sich von ihren zahlreichen, verzweigten Fortsätzen ab, die an die Dendriten von Nervenzellen erinnern.

    Dendritische Zellen entstehen aus Vorläuferzellen im Knochenmark und differenzieren sich im Gewebe weiter. Sie sind in nahezu allen Geweben des Körpers zu finden, insbesondere an den Grenzflächen zur Außenwelt wie Haut, Atemwege und Magen-Darm-Trakt, wo sie kontinuierlich auf der Suche nach Antigenen sind. Im Gewebe können sie sich in verschiedene Untertypen entwickeln, die jeweils spezifische Aufgaben bei der Erkennung und Präsentation von Antigenen übernehmen.

    Dendritische Zellen erkennen Krankheitserreger und Fremdstoffe durch spezielle Rezeptoren auf ihrer Oberfläche, die sogenannten Mustererkennungsrezeptoren (PRRs). Diese Rezeptoren binden an charakteristische Molekülmuster auf den Pathogenen, die als Pathogen-assoziierte molekulare Muster (PAMPs) bekannt sind. Auch beschädigte oder abgestorbene Zellen senden spezifische „eat-me“-Signale aus, die von den dendritischen Zellen erkannt werden.

    Abb. 38: Die dendritische Zelle erkennt das Pathogen über spezielle Mustererkennungsrezeptoren und bindet es. Anschließend stülpt sich die Zellmembran an der Bindungsstelle ein und umschließt das Pathogen vollständig, sodass es von der dendritischen Zelle aufgenommen wird.

    Sobald dendritische Zellen Krankheitserreger oder Zelltrümmer aufgenommen haben, durchlaufen sie einen Reifungsprozess. Dieser Prozess beginnt mit der Erkennung der PAMPs auf den Pathogenen durch die PRRs. Nach dieser Erkennung phagozytieren die dendritischen Zellen die Pathogene oder Zellabfälle und schließen sie in einem membranumhüllten Bläschen, dem Phagosom, ein. Innerhalb des Phagosoms werden die aufgenommenen Materialien durch Verdauungsenzyme abgebaut.

    Während dieses Abbaus entstehen kleinere Fragmente, die als Antigene bezeichnet werden. Diese Antigene werden dann an MHC-Klasse-II-Moleküle gebunden und auf der Zelloberfläche präsentiert.

    Abb. 39: Während der Phagozytose bildet sich ein membranumhülltes Bläschen, das Phagosom (1). Dieses verschmilzt mit einem Lysosom (2), das Verdauungsenzyme enthält, wodurch der Erreger abgebaut wird. Im resultierenden Phagolysosom (3) entstehen kleinere Fragmente, darunter auch potenzielle Antigene. Diese Antigene werden an MHC-Klasse-II-Moleküle gebunden und auf der Zelloberfläche präsentiert.

    Nach der Aufnahme und Verarbeitung von Antigenen wandern dendritische Zellen in die nächstgelegenen Lymphknoten, wo sie die Antigene den T-Zellen präsentieren und so die Aktivierung der spezifischen Immunantwort initiieren.

    Obwohl dendritische Zellen auch als Phagozyten in der angeborenen Immunabwehr eine wichtige Rolle spielen, liegt ihre Hauptfunktion als Antigen-präsentierende Zellen (APCs) in der Aktivierung der spezifischen Immunabwehr. Daher werden wir uns im Kapitel ‚Die spezifische Immunabwehr‘ ausführlich mit ihrer Rolle als APC beschäftigen.

    Neben der Aktivierung der spezifischen Immunantwort können dendritische Zellen auch regulierend wirken. Je nach Kontext und den empfangenen Signalen können sie sowohl immunstimulierende als auch immunsuppressive Funktionen übernehmen, und tragen so zur Feinabstimmung der Immunreaktionen bei.

    5.3. d) Natürliche Killerzellen

    Natürliche Killerzellen (NK-Zellen) sind eine Art von Lymphozyten, die zu den Leukozyten (weißen Blutkörperchen) gehören. Sie entwickeln sich aus lymphatischen Stammzellen im Knochenmark und sind ein essenzieller Bestandteil der angeborenen Immunantwort.

    NK-Zellen zirkulieren im Blut und haben die Aufgabe, den Zelltod (Apoptose) bestimmter Zellen, insbesondere virusinfizierter Zellen und Tumorzellen, gezielt auszulösen. Ihre Präsenz im Blut ermöglicht es ihnen, schnell auf Infektionen zu reagieren und in verschiedene Gewebe einzudringen, wenn eine Bedrohung auftritt. Sie sind auch in verschiedenen Geweben und Organen des Körpers zu finden, insbesondere in der Milz, der Leber, den Lymphknoten und der Lunge.

    Obwohl NK-Zellen nicht aktiviert werden müssen, wird ihre Aktivität durch Zytokine gesteigert. Im Gegensatz zu anderen Immunzellen besitzen sie keine spezifischen Rezeptoren für fremde Antigene. Stattdessen nutzen sie eine Reihe von Rezeptoren, die in zwei Kategorien unterteilt werden: aktivierende und inhibierende Rezeptoren.

    Inhibierende Rezeptoren

    Inhibierende Rezeptoren erkennen MHC-Klasse-I-Moleküle, die normalerweise auf der Oberfläche aller kernhaltigen Zellen vorhanden sind und als SELBST-Marker für das Immunsystem dienen. Die Bindung der inhibierenden Rezeptoren erfolgt unabhängig von den präsentierten Peptiden auf dem MHC-Klasse-I-Molekül; die NK-Zelle erkennt nicht direkt die Peptide, sondern das MHC-Klasse-I-Moleküls selbst.

    NK-Zellen scannen die Zelloberflächen im Körper und binden ihre inhibierenden Rezeptoren an MHC-Klasse-I-Moleküle. Aufgrund der Bindung wird ein inhibierendes (negatives) Signal in die NK-Zelle gesendet. Dieses Signal unterdrückt die Aktivierung der NK-Zelle und schützt somit die gesunden Zellen vor Angriffen.

    Tumorzellen und virusinfizierte Zellen reduzieren oft die Expression von MHC-Klasse-I-Molekülen, um der Erkennung durch zytotoxische T-Zellen zu entgehen. Dieses Phänomen wird als ‚missing-self‚-Prinzip bezeichnet.  Wenn eine Zelle keine oder reduzierte MHC-Klasse-I-Moleküle auf ihrer Oberfläche exprimiert, wird das inhibierende (negative) Signal nicht gesendet und die Zielzelle wird angegriffen.

    Abb. 40: LINKS: NK-Zelle erkennt MHC-I und wird gehemmt, RECHTS: NK-Zelle findet kein MHC-I und wird aktiviert

    Aktivierende Rezeptoren

    Aktivierende Rezeptoren erkennen Stressmoleküle, die auf der Oberfläche von infizierten oder transformierten Zellen exprimiert werden. Es gibt verschiedene Stressmoleküle, die zusammengefasst als ‚Stress-induced self‚ bezeichnet werden. Wenn Zellen unter Stress stehen, exprimieren sie diese Moleküle. Die aktivierenden Rezeptoren auf NK-Zellen erkennen diese Stressmoleküle, was zur Aktivierung und zum Angriff der NK-Zellen auf die betroffenen Zellen führt.

    Abb. 41: Stressmoleküle werden von der NK-Zelle erkannt und der Angriff wird eingeleitet trotz vorhandener MHC-I-Erkennung.

    Die Aktivierung der NK-Zellen hängt von einem feinen Gleichgewicht zwischen aktivierenden und inhibierenden Signalen ab. Wenn sowohl aktivierende als auch inhibierende Signale erkannt werden, erfolgt eine Gewichtung dieser Signale. Im Falle einer überwiegenden Hemmung durch die inhibierenden Rezeptoren wird die Aktivierung der NK-Zelle unterdrückt, und die Zielzelle bleibt geschützt. Wenn jedoch die aktivierenden Signale dominieren oder die inhibierenden Signale schwächer sind, wird die NK-Zelle aktiviert und greift die Zielzelle an. Auf diese Weise können NK-Zellen ihr Ziel erkennen und töten, trotz der Bemühungen von Zielzellen, der Immunüberwachung zu entgehen.

    Die Natürliche Killerzelle (NK-Zelle) kann die Zielzelle auf zwei Arten eliminieren.

    1) Tötung durch Perforine und Granzyme

    Zum einen setzt sie Zellgifte frei. Im Zytoplasma der NK-Zelle befinden sich zahlreiche kleine Granula, die Proteine wie Perforin und Granzyme enthalten.

    Diese werden in der Umgebung der Zielzelle freigesetzt. Die Perforine bohren Löcher in die Membran der Zielzelle, durch die Granzymen eindringen und die Apoptose einleiten.

    Abb. 42: Die Natürliche Killerzelle erkennt eine virusinfizierte Zelle. Da sie kein hemmendes Signal empfängt und somit ein positives Signal für den Angriff erhält, aktiviert sie ihren Abwehrmechanismus und tötet die Zielzelle durch die Freisetzung von Zellgiften.

    Manchmal binden Antikörper (die vom Immunsystem produziert werden) an abnormale Zellen wie virusinfizierte Zellen oder Krebszellen. NK-Zellen erkennen dabei nicht den spezifischen variablen Teil des Antikörpers, der an das Antigen gebunden ist, sondern die konstante Schwanzregion des Antikörpers, den sogenannten Fc-Teil. An dieser Stelle reicht es zu wissen, dass Antikörper aus einem variablen und einem konstanten Teil bestehen. Antikörper werden wir in späteren Kapiteln genauer betrachten. NK-Zellen besitzen Fc-Rezeptoren, die speziell an diesen konstanten Fc-Teil der Antikörper binden.

    Nachdem die NK-Zelle an die Antikörper gebunden hat, setzt sie Perforine und Granzyme frei, um die Zielzelle zu zerstören.

    Abb. 43: Eine natürliche Killerzelle erkennt die konstante Schwanzregion des Antikörpers, der an eine virusinfizierte Zelle gebunden ist. Durch die Bindung über ihren Fc-Rezeptor setzt die NK-Zelle Zellgifte (Perforine und Granzyme) frei, um die infizierte Zelle zu zerstören.

    2) Tötung durch Fas-Ligand (FasL)

    Tumorzellen oder infizierte Zellen können Fas-Rezeptoren exprimieren. Fas ist ein spezifischer ‚Todesrezeptor‘. NK-Zellen besitzen Fas-Liganden (FasL). Wenn die NK-Zelle mit ihrem Fas-Ligand an den Fas-Rezeptor der Zielzelle bindet, übermittelt sie der Zielzelle Signale, die den Apoptoseweg aktivieren. Der Kontakt zwischen Fas-Ligand und Fas-Rezeptor wird auch als ‚Todeskuss‘ bezeichnet.

    Abb. 44: Eine Natürliche Killerzelle erkennt eine virusinfizierte Zelle über den Fas-Liganden. Nach der Bindung an den Fas-Rezeptor der Zielzelle sendet sie Signale, die die Apoptose einleiten.

    Die Zielzelle durchläuft eine Reihe geordneter Veränderungen: Zuerst schrumpft sie, und das Chromatin (das Material, aus dem die Chromosomen bestehen) verdichtet sich. Danach wird die DNA in kleine Fragmente zerlegt. Schließlich zerfällt die Zelle in kleine Bläschen, sogenannte apoptotische Körperchen, die von spezialisierten Zellen des Immunsystems, wie Makrophagen, erkannt und beseitigt werden.

    Abb. 45: Nach der Apoptose der Zielzelle beseitigen Makrophagen die Überreste durch Phagozytose.

    Das folgende Animationsvideo erklärt kurz und prägnant die Funktion und Bedeutung der NK-Zellen.

    Quelle: Immune System – Natural Killer Cell

    „In der jüngeren Vergangenheit ging man davon aus, dass NK-Zellen nicht über ein immunologisches Gedächtnis verfügen, sich also nicht an Begegnungen mit virus-infizierten Zellen ‚erinnern‘ können. Seit einigen Jahren gibt es jedoch Hinweise, dass sie sich im Laufe ihres Lebens an ihre Umgebung anpassen – Fähigkeiten, die man bisher nur dem erworbenen Immunsystem zugeordnet hat.“ [DocCheck]

    Obwohl NK-Zellen zum angeborenen Immunsystem gehören, werden sie oft als Schnittstelle zwischen dem angeborenen und dem erworbenen Immunsystem betrachtet, da sie durch die Interaktion mit anderen Immunzellen die gesamte Immunreaktion beeinflussen. Natürliche Killerzellen spielen eine entscheidende Rolle bei der Bekämpfung von Virusinfektionen und Krebszellen und halten diese Bedrohungen in Schach, bis die spezifische Immunabwehr vollständig aktiviert ist.

    Die Leukozyten (weißen Blutkörperchen) als zweite Verteidigungslinie werden bei ihrer Arbeit durch das Komplementsystem unterstützt.

    5.4. Das Komplementsystem

    Ein wichtiger Teil unserer Immunantwort ist das Komplementsystem. Es ist bereits bei Neugeborenen vorhanden und gehört somit zum angeborenen Immunsystem. Als Sofortmaßnahme richtet es sich gegen Eindringlinge, die die natürlichen Körperbarrieren, also Haut oder Schleimhaut, überwunden haben. Im Zusammenspiel mit dem spezifischen Immunsystem „komplementiert“ es die Immunantwort.

    Im Wesentlichen hat das Komplementsystem drei Aufgaben: es markiert Feinde, aktiviert die Immunabwehr und brennt Löcher in die Feinde, bis sie sterben.

    Um Pathogene wieder loszuwerden, durchläuft das Komplementsystem folgende Phasen:

    a) Erkennen und Markieren des Pathogens (Opsonierung)
    b) Aktivierung der Immunabwehr (Entzündung, Komplement-Kaskade)
    c) Zerstörung des Pathogens (Phagozytose, Lyse)
    d) Beseitigung der Überreste und Heilung des geschädigten Gewebes

    Für diese Aufgaben stehen etwa 30 Komplement-Proteine zur Verfügung, die in den Körperflüssigkeiten und im Gewebe vorhanden sind. Diese Proteine haben unterschiedliche Funktionen und werden Komplementfaktoren (C1, C2, C3, … C9) genannt. Sie sind in der Lage, sich in weitere Untereinheiten zu spalten (z.B. aus C3 wird C3a und C3b). Mit der Spaltung werden sie aktiviert.

    a) Erkennen und Markieren des Pathogens

    Pathogene werden an sich wiederholenden Mustern auf ihrer Oberfläche erkannt, die nur auf körperfremden Mikroorganismen oder kranken Zellen vorhanden sind. Auf der Suche nach krankmachenden Veränderungen patrouillieren Komplement-Proteine unentwegt durch Blut, Gewebe und Schleimhaut. Sobald sie auf etwas Fremdes stoßen, das sie als pathogen erkennen, heften sie sich an das Fundstück und markieren es damit für das Immunsystem als FREMD.

    Abb. 46: Beispiele für Fundstücke

    Das Fundstück kann zum Beispiel ein Antigen-Antikörper-Komplex, auch Immunkomplex (IC) genannt, sein, bei dem ein Antikörper an ein Antigen gebunden hat.

    Oder sie heften sich an die Oberflächen von Bakterien, Viren und anderen Parasiten. Diesen Prozess nennt man Opsonierung. Die so markierten Pathogene sind nun besser für andere Immunzellen wie Makrophagen, dendritische Zellen, Granulozyten und natürliche Killerzellen sichtbar und greifbar. Je nachdem, wie die Opsonierung erfolgt, unterscheidet man drei verschiedene Komplementwege.

    Abb. 47: Verschiedene Komplementwege

    b) Aktivierung der Immunabwehr

    Je nach Aktivierungsweg binden unterschiedliche Proteine an das Pathogen (siehe obige Abbildung). Im klassischen Weg bindet C1 an Antigen-Antikörper-Komplexe (Immunkomplexe), im Lektin-Weg bindet Mannose-bindendes Lektin (MBL) an Zuckerstrukturen (Mannose) auf der Pathogenoberfläche, und im alternativen Weg bindet C3 direkt an die Pathogenoberfläche. Diese Bindungen führen alle zur Bildung der C3-Konvertase, einem speziellen Enzym, dass das Protein C3 in zwei Teile aufspaltet: C3a und C3b.

    Da dieser Mechanismus komplex ist, wird hier nur kurz erwähnt, dass es im klassischen Weg und im Lektin-Weg nach der Bindung der entsprechenden Proteine zu einer Reihe von Reaktionen kommt, die letztlich zur Bildung der C3-Konvertase führen. Im alternativen Weg bildet sich C3-Konvertase direkt aus. C3b, das Produkt dieser Spaltung, heftet sich dann an die Oberfläche des Pathogens. Im alternativen Weg verbleibt C3b direkt an der Pathogenoberfläche.

    Abb. 48: Verschiedene Komplementwege führen alle zur C3-Konvertase.

    Die kleineren C3a-Proteine wirken als Notsignale, die weggespült werden und dabei weitere Komplement-Proteine aktivieren. Diese neu mobilisierten Proteine folgen den Notsignalen zum Ursprung der Entzündung, heften sich an den Feind und spalten sich ebenfalls. Dies führt zu einem Domino-Effekt, der als Komplement-Kaskade bezeichnet wird. Eine Entzündungsreaktion wird ausgelöst, die sich immer weiter verstärkt, bis unzählige Komplement-Proteine die Eindringlinge bedecken.

    Abb. 49: Unzählige Komplement-Proteine bedecken den Eindringling.

    Die Notsignale bewirken außerdem, dass sich die lokalen kleineren Blutgefäße weiten und durchlässiger werden. Dadurch können Immunzellen leichter aus den Blutgefäßen in das infizierte Gewebe einwandern. Zusätzlich werden durch die Notsignale auch weitere Immunzellen angelockt. Dies führt zu einer Schwellung der Umgebung am Infektionsort, wodurch die typischen Merkmale einer Entzündung wie Schwellung, Rötung, Wärme und Schmerz entstehen. Die Entzündung brennt.

    Abb. 50: Komplement-Kaskade führt zur Entzündung

    c) Zerstörung des Pathogens

    Die herbeigerufenen Immunzellen finden die markierten Erreger, indem sie spezielle Komplementrezeptoren auf ihrer Oberfläche nutzen, die an das C3b-Protein binden. Diese Rezeptoren ermöglichen es den Phagozyten, die markierten Pathogene gezielt zu erkennen. Anschließend umhüllen die Fresszellen (Phagozyten) das Pathogen, nehmen es in sich auf und verdauen es.

    Abb. 51: Phagozytose des mit C3b opsonierten (markierten) Pathogens

    Auch die Komplement-Proteine gehen zum Angriff über. Am Eindringling binden nun weitere Proteine (C5b, C6, C7, C8 und mehrere C9). Diese Komplement-Proteine formieren sich zu Protein-Einheiten (C5b678poly9-Komplexen), sogenannten Membranangriffskomplexen (MAC), und diese stanzen Poren in die Zellmembran des Feindes. Die so erzeugten Löcher in der Zellmembran führen zum Flüssigkeitsaustausch zwischen Zellinnerem und Umgebung, was zur Auflösung des Krankheitserregers führt, die sogenannte Lyse.

    Abb. 52: Komplement-Proteine bilden Membranangriffskomplex (MAC), der zur Lyse führt.

    Die Animation „Kleine Bomben im Blut – Das Komplement-System“ stellt sehr anschaulich die beschriebenen komplexen Prozesse dar.

    Das Komplementsystem steht in starker Wechselwirkung mit dem Gerinnungssystem. Die durch das Komplementsystem ausgelöste Entzündungsreaktion verursacht an der Infektionsstelle eine Blutgerinnung. Gerinnsel verschließen die kleinen Blutgefäße und verhindern so, dass sich die Krankheitserreger über das Blut weiter ausbreiten können. Gleichzeitig wird Flüssigkeit ins Gewebe und von dort zu den Lymphknoten geleitet. Die mit Antigenen beladenen dendritischen Zellen erreichen so leichter die Lymphknoten. Dort präsentieren sie die Antigene den T-Zellen und leiten somit die spezifische Immunantwort ein.

    d) Beseitigung der Überreste und Heilung des geschädigten Gewebes

    Die Immunantwort endet, wenn die Bedrohung beseitigt wurde. Für die Heilung müssen zunächst die Überreste von Zellschrott, Bakterien oder Viren aus dem Wundgebiet beseitigt werden. Diese Aufgabe übernehmen die Makrophagen. Durch die Reinigung löst sich die Entzündung auf. Mit der Bildung neuer Zellen wird das Gewebe repariert oder vollständig regeneriert. Die überflüssig gewordenen Gerinnsel werden durch Fibrinolyse, also die enzymatische Auflösung von Gerinnseln, wieder abgebaut.

    Regulierung des Komplementsystems

    Die verschiedenen Komplement-Fragmente haben auch eine immunregulierende Wirkung. Diese Regulatoren können die Abwehrreaktion verstärken oder hemmen und somit die Immunantwort beenden. Eine Fehlregulierung des Komplementsystems hat schwerwiegende Folgen für die Gesundheit. Sowohl das Komplement- als auch das Gerinnungssystem sollen nur lokal wirken. Die Ausbreitung auf den gesamten Organismus hätte schwerwiegende Folgen. Eine Fehlregulierung kann zu Autoimmunität führen, bei der körpereigene Zellen angegriffen werden und verschiedene Krankheiten entstehen.

    Durch die Kombination von Leukozyten und dem Komplementsystem wird eine effektive und koordinierte Abwehr gegen Infektionen gewährleistet. Schaffen es die spezialisierten Immunzellen in Zusammenarbeit mit dem Komplementsystem, alle Erreger zu eliminieren, so endet hier die Immunantwort. Jedoch gelingt es nicht immer, alle Pathogene durch die unspezifische Abwehr vollständig zu beseitigen. In solchen Fällen tritt das spezifische Immunsystem in Aktion.

    5.5. Die spezifische Immunabwehr

    Obwohl die angeborene, unspezifische Abwehr sehr schnell reagiert, ist sie jedoch nicht immer ausreichend. Sie kann viele Krankheitserreger abwehren, aber einige sind in der Lage, diese Verteidigungslinie zu überwinden. Ab diesem Zeitpunkt reagiert der Körper mit einer gezielten, also spezifischen Immunantwort. Die spezifische Abwehr ist langsamer als die Unspezifische, da sie Zeit benötigt, um eine maßgeschneiderte Antwort auf den Eindringling zu entwickeln.

    Da sich diese Abwehr gezielt gegen bestimmte Krankheitserreger richtet, hat sie eine wesentlich höhere Treffsicherheit und Effizienz. Zudem kann sie sich Informationen über einen Angreifer merken. Sie entwickelt sich in einem lebenslangen Trainingsprozess. Daher bezeichnet man sie auch als erworbene Immunabwehr oder adaptive Immunabwehr.

    5.5.1. Schlüsselspieler der adaptiven Immunantwort
    5.5.2. Naive B- und T-Zellen: Die Vielfalt der Immunantwort
    5.5.3. Die Rolle der antigenpräsentierenden Zellen (APCs)
    5.5.4. Die Bedeutung der Lymphknoten für die adaptive Immunantwort
    5.5.5. Erkennungsphase
    5.5.6. Aktivierungsphase
    5.5.7. Effektorphase
    III – Dritte Verteidigungslinie: die Antikörper
    5.5.8. Arten von Antikörpern
    5.5.9. Die Wirkungsphase der Antikörper
    5.5.10. Regulatorische T-Zellen und ihre Rolle im Immunsystem
    5.5.11. Abschaltphase
    5.5.12. Gedächtnisphase
    5.5.1. Schlüsselspieler der adaptiven Immunantwort

    Schlüsselspieler der adaptiven Immunantwort sind spezialisierte Leukozyten, die B-Lymphozyten (B-Zellen) und T-Lymphozyten (T-Zellen). Diese arbeiten in zwei eng miteinander verflochtenen Systemen: der humoralen und der zellulären Immunantwort.

    Abb. 53: Immunzellen der spezifischen Immunabwehr
    a) Entwicklung und Reifung der Lymphozyten
    b) Humorale und Zelluläre Abwehrmechanismen
    c) Migration und Verteilung der Lymphozyten
    d) Struktur der lymphatischen Organe
    a) Entwicklung und Reifung der Lymphozyten

    B- und T-Zellen entstehen aus Stammzellen im Knochenmark. Während die B-Zellen im Knochenmark vollständig ausreifen, wandern die T-Zellen nach ihrer Bildung in den Thymus, um dort ihre Reifung abzuschließen. Die Kürzel B und T leiten sich von ihren Bildungsorten ab: B steht für Bone Marrow (Knochenmark), und T steht für Thymus.

    B- und T-Zellen gelten als naiv, solange sie noch keinem Antigen begegnet sind.

    b) Humorale und Zelluläre Abwehrmechanismen

    Bei der humoralen Abwehr handelt es sich um die Bekämpfung von Krankheitserregern in den Körperflüssigkeiten wie Blut und Lymphe (lat. humor bedeutet Flüssigkeit). Die Hauptakteure dieser Abwehr sind die B-Lymphozyten. Sie erkennen spezifische Antigene und produzieren daraufhin Antikörper, die sich an die Antigene binden. Diese Bindung markiert die Krankheitserreger für die Vernichtung durch andere Immunzellen oder neutralisiert sie direkt. Dieser Prozess ist besonders effektiv gegen Pathogene, die sich außerhalb der Körperzellen befinden, wie Bakterien und Viren, die noch nicht in eine Zelle eingedrungen sind.

    Die zelluläre Abwehr hingegen wird von den T-Lymphozyten ausgeführt. Sie erkennen und zerstören infizierte oder auf andere Weise abnormal gewordene Zellen. T-Lymphozyten können auch weitere Immunzellen aktivieren, um die Vernichtung von Pathogenen zu erhöhen. T-Zellen werden weiter in CD4+ T-Zellen und CD8+ T-Zellen unterteilt, die jeweils unterschiedliche Rollen in der Immunantwort haben.

    Im weiteren Verlauf des Textes werden die Begriffe CD4-T-Zellen und CD8-T-Zellen verwendet, um die Lesbarkeit zu verbessern. Das ‚+‘-Symbol bezeichnet den Ausdruck von spezifischen Oberflächenmarkern auf den T-Zellen. Es zeigt an, dass diese T-Zellen die entsprechenden Marker auf ihrer Oberfläche tragen. In vielen Kontexten kann das ‚+‘-Symbol weggelassen werden, ohne dass die Bedeutung verloren geht.

    CD4-T-Zellen sind hauptsächlich T-Helferzellen, sie unterstützen und regulieren die Aktivitäten anderer Immunzellen. CD8-T-Zellen sind hauptsächlich zytotoxische T-Zellen. Sie erkennen und zerstören infizierte Zellen, insbesondere solche, die von Viren befallen sind, sowie Krebszellen.

    c) Migration und Verteilung der Lymphozyten

    Nach ihrer Entwicklung gelangen die naiven B-Zellen und T-Zellen ins Blut. Sobald sie ein sekundäres lymphatisches Organ (zum Beispiel einen Lymphknoten) erreichen, verlassen sie das Blut und wandern durch das Lymphgewebe. Von dort aus kehren sie über die Lymphgefäße wieder ins Blut zurück und pendeln so zwischen Blut und sekundärem Lymphgewebe hin und her.

    Um das besser zu verstehen, lohnt sich ein genauerer Blick auf den Aufbau der lymphatischen Organe.

    d) Struktur der lymphatischen Organe

    Die verschiedenen sekundären lymphatischen Organe (wie Lymphknoten, Milz usw.) sind alle nach einem ähnlichen Schema aufgebaut: Sie enthalten voneinander getrennte Bereiche, in denen sich die B- und T-Zellen ansammeln – die sogenannten B-Zell- und T-Zell-Zonen. Zirkulierende T- und B-Zellen gelangen vom Blut aus über einen gemeinsamen Weg in die sekundären lymphatischen Gewebe, werden jedoch dort durch die Wirkung unterschiedlicher Chemokine (Signalproteine, die die Bewegung von Zellen steuern) in ihre jeweiligen Kompartimente (Bereiche) geleitet.

    Abb. 54: LINKS: Bestandteile des Lymphsystems, RECHTS: Aufbau eines Lymphknotens

    Ein Lymphknoten ist von einer dünnen Hülle aus Bindegewebe (Kapsel) umgeben, die kleine Trennwände ins Innere zieht und den Lymphknoten in verschiedene Abschnitte unterteilt. Auf der gewölbten Seite fließt die Lymphflüssigkeit über zuführende Lymphgefäße in den Lymphknoten. Auf der eingedrückten Seite, dem sogenannten Hilum, verlässt die gefilterte Lymphflüssigkeit den Lymphknoten durch ein spezielles abführendes Lymphgefäß. An dieser Stelle treten auch die Blutgefäße in den Lymphknoten ein und aus. Im Inneren durchläuft die Lymphflüssigkeit spezielle Kanäle, das sogenannte Sinussystem. In der äußeren Schicht des Lymphknotens befinden sich B-Zellen in kleinen Ansammlungen, den sogenannten Lymphfollikeln. Diese B-Zell-Region grenzt direkt an den Bereich der T-Zellen, den Parakortex. Sowohl B- als auch T-Zellen können über das Blut (Arterie) oder die zuführenden Lymphgefäße in den Lymphknoten eintreten und ihn dann entweder über das Blut (Vene) oder die abführenden Lymphgefäße wieder verlassen.

    5.5.2. Naive B- und T-Zellen: Die Vielfalt der Immunantwort

    Naive T-Zellen tragen auf ihrer Oberfläche einzigartige T-Zell-Rezeptoren (TCRs), die speziell für die Erkennung von Antigenen entwickelt sind. Ebenso besitzen naive B-Zellen eine Vielzahl von B-Zell-Rezeptoren (BCRs), die ebenfalls zur Antigenerkennung dienen.

    Die immense Vielfalt der TCRs und BCRs entsteht durch einen genetischen Mechanismus, der als somatische Rekombination oder somatische V(D)J-Rekombination bekannt ist. Bei diesem Prozess werden verschiedene Gensegmente zufällig neu kombiniert, was zur Bildung von Milliarden verschiedener Rezeptoren führt. Dies ermöglicht dem Immunsystem, auf nahezu jedes erdenkliche Antigen vorbereitet zu sein.

    Abb. 55: Vielfalt der naiven T-Zellen, die jeweils unterschiedliche T-Zell-Rezeptoren (TCRs) besitzen.

    Bereits ab der Geburt verfügt der Mensch über mindestens eine Immunzelle für jeden potenziellen Erreger auf diesem Planeten.
    [Evolution der Immunrezeptor-Vielfalt]

    Oder, wie es in den Videos „Das Immunsystem erklärt“ und „Diese Zellen machen dich immun gegen ALLES“ eindrucksvoll beschrieben wird: Dein Immunsystem hat eine perfekte Waffe gegen jede einzelne mögliche Krankheit im Universum. Gegen die Pest, das Coronavirus – oder eine Infektion, die erst in 100 Jahren auf dem Mars entstehen wird.

    Die Videos wurde im Kanal ‚Dinge Erklärt – Kurzgesagt‘ 2021 veröffentlicht, der bis Ende 2022 Teil des Netzwerkes funk von ARD und ZDF war. [wikipedia]

    Diese Diversität verleiht dem adaptiven Immunsystem seine beeindruckende Stärke, indem es eine riesige Bibliothek von Antworten auf praktisch jeden möglichen Erreger bereithält. Diese enorme Anpassungsfähigkeit ist entscheidend, um gegen die rasch evolutionierenden Bakterien und Viren bestehen zu können.

    Alle Lebewesen bestehen hauptsächlich aus Proteinen, die wie 3D-Puzzleteile aufgebaut sind und Milliarden verschiedene Formen annehmen können. Krankheitserreger nutzen diese Vielfalt, um ihre Strukturen ständig zu verändern. Das Influenzavirus zum Beispiel mutiert so schnell, dass seine Hüllproteine ständig leicht verändert sind, was es dem Immunsystem erschwert, es zu erkennen.

    Das angeborene Immunsystem kennt eine Vielzahl der häufigsten Proteinpuzzleteile und fungiert daher als Allzweckwaffe. Allerdings ist es gegen die unzähligen Mutationen und Anpassungen der Erreger oft machtlos. Hier kommt das adaptive Immunsystem ins Spiel, das in der Lage ist, zwischen einer und zehn Milliarden verschiedener feindlicher Proteinpuzzleteile zu unterscheiden.

    Damit diese hochspezialisierten Zellen jedoch effektiv gegen einen spezifischen Erreger vorgehen können, müssen sie zuerst das entsprechende Antigen präsentiert bekommen. Genau hier spielen die antigenpräsentierenden Zellen (APCs) eine entscheidende Rolle.

    5.5.3. Die Rolle der antigenpräsentierenden Zellen (APCs)

    Die Schnittstelle zwischen der angeborenen und adaptiven Immunabwehr bilden die antigenpräsentierenden Zellen (APCs). Zu den bekanntesten APCs gehören Makrophagen, dendritische Zellen und B-Zellen, wobei dendritische Zellen besonders effizient in der Aufnahme und Präsentation von Antigenen sind. Die Antigenpräsentation ist eine wesentliche Voraussetzung für die Einleitung der adaptiven Immunantwort, insbesondere für die Aktivierung der T-Zellen, die meist in den Lymphknoten stattfindet. In den Lymphknoten treffen antigenpräsentierende Zellen und T-Zellen aufeinander, was die Immunantwort ermöglicht.

    Dendritische Zellen haben die einzigartige Fähigkeit, Antigene auf zwei verschiedene Weisen zu präsentieren: über MHC-Klasse-II-Moleküle und über MHC-Klasse-I-Moleküle. Diese beiden Präsentationswege schauen wir uns genauer an.

    a) Antigenpräsentation über MHC-II-Moleküle
    b) Antigenpräsentation über MHC-I-Moleküle
    c) Dendritische Zellen wandern zu den Lymphknoten
    a) Antigenpräsentation über MHC-II-Moleküle

    Sobald eine dendritische Zelle einen (exogenen) Erreger erkannt hat, bindet sie an ihn, umschließt ihn mit ihrer beweglichen Membran und nimmt den Erreger durch Einstülpen in sich auf.

    Abb. 56: Dendritische Zelle erkennt mittels Mustererkennungsrezeptoren (PRR) molekulare Muster (PAMP) auf einem Erreger. Daraufhin wird die Phagozytose des Erregers eingeleitet. (‚exogen‘ weist darauf hin, dass der Erreger von außen in den Körper gelangt ist.)

    Der Erreger landet in einem membranumhüllten Bläschen, das als Phagosom bezeichnet wird. Das Phagosom fusioniert mit einem Lysosom, welches Verdauungsenzyme enthält, wodurch der Erreger abgebaut wird. Im Phagolysosom entstehen kleinere Fragmente, darunter auch potenzielle Antigene. Diese Antigene werden an MHC-Klasse-II-Moleküle gebunden und auf der Zelloberfläche präsentiert.

    Abb. 57: Antigenpräsentation durch MHC-Klasse-II-Moleküle in dendritischen Zellen:

    1) Phagozytose von exogenen Antigenen. 2) Abbau der Antigene in Phagolysosomen. 3) Zusammenbau und Transport von MHC-II-Molekülen aus dem endoplasmatische Retikulum (ER) zum Golgi-Apparat. 4) Fusion der Vesikel und Beladung der MHC-II-Moleküle mit Peptiden. 5) Präsentation des beladenen MHC-II an der Zelloberfläche.

    Auf diese Weise zeigt die dendritische Zelle nach außen, welchen Erreger sie entdeckt hat. Diese MHC-II-Antigen-Komplexe sind entscheidend für die Aktivierung der CD4-T-Zellen.

    Abb. 58: Dendritische Zelle präsentiert den MHC-II-Antigen-Komplex.

    Eine anschauliche kurze Visualisierung der MHC-Klasse-II-Antigenverarbeitung und -präsentation bietet Dr. Noel Kowal an.

    Quelle: MHC Class II Antigen Processing and Presentation
    b) Antigenpräsentation über MHC-I-Moleküle

    I – Direkte Infektion

    Dendritische Zellen, wie alle Zellen, müssen kontinuierlich Proteine herstellen, um zu überleben. Diese Proteine werden nach Erfüllung ihrer Funktion im Proteasom in kleinere Fragmente (Peptide) abgebaut. Wird die dendritische Zelle von einem Erreger wie einem Virus infiziert, produziert sie virale (endogene) Proteine, die ebenfalls im Proteasom abgebaut werden. Die entstehenden Peptide (Antigene) werden an die MHC-Klasse-I-Moleküle gebunden und anschließend über den Golgi-Apparat in Vesikeln zur Zellmembran transportiert. Dort stehen sie für die Erkennung durch CD8-T-Zellen bereit.

    Abb. 59: Antigenpräsentation durch MHC-Klasse-I-Moleküle in dendritischen Zellen:

    1) Die dendritische Zelle wird von einem Erreger (Virus) infiziert. 2) Der Virus wird im Proteasom in Peptide zerlegt. 3) Diese Peptide werden in das endoplasmatische Retikulum (ER) transportiert. 4) Dort binden die Peptide an MHC-Klasse-I-Moleküle. 5) Die Antigen-MHC-I-Komplexe werden über den Golgi-Apparat in Vesikel verpackt. 6) Anschließend werden sie zur Zelloberfläche transportiert. (‚endogen‘ weist darauf hin, dass der Erreger oder die Antigene von innerhalb der Zelle stammen.)

    Dr. Noel Kowal stellt ebenfalls eine prägnante Visualisierung der MHC-Klasse-I-Antigenverarbeitung und -präsentation bereit.

    Quelle: MHC Class I Antigen Processing and Presentation

    II – Kreuzpräsentation

    Interessanterweise können dendritische Zellen Antigene (von Viren oder Bakterien) auch auf MHC-Klasse-I-Molekülen präsentieren, selbst wenn sie nicht von diesen Erregern infiziert sind. Dieser Prozess heißt Kreuzpräsentation und ist wichtig für unser Immunsystem, weil er oft häufiger zur Aktivierung von Abwehrzellen führt als die direkte Infektion der dendritischen Zellen.

    Dendritische Zellen nehmen dabei Antigene von toten oder zerstörten infizierten Zellen auf. Normalerweise würden diese Antigene in einem speziellen Bläschen innerhalb der Zelle, dem Phagosom, verarbeitet und auf MHC-Klasse-II-Molekülen präsentiert. Bei der Kreuzpräsentation passiert jedoch etwas Besonderes: Die Antigene gelangen aus dem Phagosom ins Zellinnere (Zytoplasma) und werden dort vom Proteasom, in kleine Stücke zerlegt.

    Diese kleinen Proteinfragmente (Peptide) werden dann ins endoplasmatische Retikulum (ER) transportiert, wo sie an MHC-Klasse-I-Moleküle binden. Manchmal kann dieser Prozess sogar direkt im Phagosom stattfinden. Schließlich werden diese beladenen MHC-I-Moleküle an die Zelloberfläche gebracht.

    Abb. 60: Antigenpräsentation durch MHC-Klasse-I-Moleküle in dendritischen Zellen:

    1) Die dendritische Zelle phagozytiert oder nimmt virale Reste auf, die von infizierten oder zerstörten Zellen stammen. 2) Das aufgenommene Virusmaterial wird in einem Phagosom eingeschlossen, das später mit einem Lysosom fusioniert, um ein Phagolysosom zu bilden. Das Virusmaterial kann aus dem Phagolysosom ins Zytoplasma gelangen. Oder bestimmte Virusbestandteile können direkt ins Proteasom gelangen, wo sie in kleinere Peptide zerlegt werden. 3) Diese Peptide werden in das endoplasmatische Retikulum (ER) transportiert. 4) Dort binden die Peptide an MHC-Klasse-I-Moleküle. 5) Die Antigen-MHC-I-Komplexe werden über den Golgi-Apparat in Vesikel verpackt. 6) Anschließend werden sie zur Zelloberfläche transportiert.

    Auf diese Weise können dendritische Zellen Antigene, die sie eigentlich auf MHC-Klasse-II-Molekülen präsentieren würden, auch auf MHC-Klasse-I-Molekülen präsentieren. Das ist entscheidend, weil es spezielle Abwehrzellen, die CD8-T-Zellen, aktiviert, die infizierte Zellen erkennen und zerstören können.

    Der Ablauf der Kreuzpräsentation bei dendritischen Zellen ist ein komplexer und noch nicht vollständig verstandener Prozess. Obwohl in den letzten Jahren erhebliche Fortschritte gemacht und viele wichtige Mechanismen aufgeklärt wurden, bleiben einige Aspekte weiterhin Gegenstand intensiver Forschung.

    Die Kreuzpräsentation ist von entscheidender Bedeutung für das Immunsystem, da sie es dendritischen Zellen ermöglicht, eine Vielzahl von Antigenen darzustellen und auf diese Weise eine starke CD8-T-Zell-Antwort zu aktivieren.

    c) Dendritische Zellen wandern zu den Lymphknoten

    Nach der Antigenaufnahme und -verarbeitung wandern die dendritischen Zellen mit ihrem Fundstück zu den nächstgelegenen Lymphknoten.

    Abb. 61: Antigenpräsentierende Dendritische Zellen wandern im Lymphknoten zur T-Zell-Zone.

    Dort präsentieren sie ihre Antigen-MHC-Komplexe den naiven T-Zellen.

    Abb. 62: Antigenpräsentierende Dendritische Zellen suchen den passenden T-Zell-Rezeptor (TCR).

    Die folgende grafische Darstellung zeigt noch einmal zusammengefasst, wie dendritische Zellen auf zwei verschiedene Weisen Antigene präsentieren: über MHC-Klasse-I- und MHC-Klasse-II-Moleküle.

    Abb. 63: Dendritische Zellen aktivieren T-Zellen.

    CD4-T-Zellen besitzen sowohl einen T-Zell-Rezeptor (TCR) als auch ein CD4-Molekül, was ihnen ihren Namen verleiht. Der T-Zell-Rezeptor ist dafür verantwortlich, an ein Antigen zu binden, das von einem MHC-Klasse-II-Molekül präsentiert wird. Das CD4-Molekül bindet direkt an das MHC-Klasse-II-Molekül. Da das CD4-Molekül nicht an MHC-Klasse-I-Moleküle binden kann, stellt dies sicher, dass CD4-T-Zellen nur mit MHC-Klasse-II-Molekülen interagieren. Umgekehrt exprimieren CD8-T-Zellen einen T-Zell-Rezeptor und ein CD8-Molekül. Das CD8-Molekül kann nicht an MHC-Klasse-II-Moleküle binden, wodurch gewährleistet wird, dass CD8-T-Zellen ausschließlich mit MHC-Klasse-I-Molekülen interagieren.

    5.5.4. Die Bedeutung der Lymphknoten für die adaptive Immunantwort

    Eine adaptive Immunantwort entsteht, wenn naive T-Zellen in sekundären lymphatischen Organen wie den Lymphknoten auf aktivierte antigenpräsentierende Zellen (wie Dendritische Zellen) treffen. Diese spezialisierten Organe ermöglichen effektive Wechselwirkungen zwischen zirkulierenden Lymphozyten und ihren Zielantigenen.

    Damit die seltenen antigenspezifischen T-Zellen effizient nach antigenpräsentierenden Zellen suchen können, zirkulieren sie ständig durch die lymphatischen Organe. Hier prüfen sie Antigene, die aus verschiedenen Geweberegionen herbeigebracht wurden.

    Für die Auslösung einer adaptiven Immunantwort ist es entscheidend, dass Krankheitserreger oder ihre Antigene in die sekundären lymphatischen Organe transportiert werden. Ohne diesen Transport in die Lymphknoten können die T-Zellen nicht sensibilisiert werden, was zeigt, dass die adaptive Immunantwort nicht direkt im infizierten Gewebe initiiert wird, sondern in den lymphatischen Organen. Dort wird auch die Produktion von Antikörpern durch die aktivierten B-Zellen angeregt.

    Die adaptive Immunantwort erfordert, dass Krankheitserreger oder ihre Antigene in die sekundären lymphatischen Organe wie Lymphknoten transportiert werden. Diese Organe sind essentiell für das Auslösen der Immunantwort, einschließlich der Produktion von Antikörpern.
    [Die T-Zell-vermittelte Immunität]

    5.5.5. Erkennungsphase

    Die Aufgabe der dendritischen Zelle (DC) ist es, zwischen den Milliarden von T-Zell-Variationen die EINE passende T-Zelle zu finden, die mit dem gefundenen Erreger übereinstimmt. Die DC bleibt dafür im Lymphknoten und präsentiert ihr gefundenes Antigen, während die T-Zellen im Lymphknoten zirkulieren und die Antigen-MHC-II-Komplexe auf der Oberfläche der dendritischen Zelle abtasten. Man könnte sagen, dass die T-Zellen die dendritischen Zellen ‚beschnuppern‘ wie Gäste, denen man erstmal ‚Hallo‘ sagt. Dies kann verständlicherweise eine Weile dauern. Nur die T-Zellen, die an das Antigen binden können, werden selektiv aktiviert.

    5.5.6. Aktivierungsphase

    a) T-Zell-Aktivierung
    b) B-Zell-Aktivierung

    Sobald eine T-Zelle einen passenden Antigen-MHC-Komplex auf einer dendritischen Zelle erkennt, bindet sie daran. Dies kann mit einem festen und längeren Händedruck zur Begrüßung verglichen werden, der eine Reihe von Signalen in der T-Zelle auslöst und ihre Aktivierung bewirkt. Dieser erste Kontakt mit dem Antigen und die daraus resultierende Aktivierung naiver T-Zellen wird oft als Priming bezeichnet.

     a) T-Zell-Aktivierung 

    Die Aktivierung naiver T-Zellen wird durch mehrere Signale kontrolliert (siehe untere Abbildung). Das primäre Signal ist die Erkennung des Antigen-MHC-Komplexes (1) auf der antigenpräsentierenden Zelle. Zusätzlich erfordert die T-Zell-Aktivierung auch die Erkennung von kostimulatorischen Signalen (zusätzliche Signale zur Aktivierung von Immunzellen, 2) und Zytokinen (3), die von der antigenpräsentierenden Zelle gesendet werden.

    Abb. 64: Dendritische Zelle (DC) aktiviert über drei Signale die naive T-Zelle.

    Diese verschiedenen Signale dienen als Verifizierungsschritte und fungieren als Schutzmechanismus, um eine Überreaktion des Immunsystems zu verhindern. Detaillierte Informationen zur T-Zell-Aktivierung findet man hier und hier.

    Nach der Aktivierung verweilen die T-Zellen für mehrere Tage in der T-Zell-Zone des Lymphknotens. Während dieser Zeit beginnen sie sich zu teilen und zu differenzieren. Die naiven T-Zellen entwickeln sich zu T-Effektorzellen, die für unterschiedliche Aktivitäten spezialisiert sind. Die Differenzierung der T-Zellen in verschiedene T-Effektorzellen hängt von der Kombination der Zytokine und anderen Signalen ab, die während der Aktivierung und der anfänglichen Phase der Immunantwort präsent sind.

    Einige aktivierte CD4-T-Zellen differenzieren sich zu T-Helferzellen (Th-Zellen), die andere Immunzellen unterstützen und die Immunantwort verstärken. Andere können zu regulatorischen T-Zellen (Treg) werden, die helfen, die Immunantwort zu kontrollieren und zu verhindern, dass das Immunsystem überreagiert und körpereigenes Gewebe angreift.

    Aktivierte CD8-T-Zellen differenzieren sich in zytotoxische T-Zellen (Tc). Diese Tc-Zellen können infizierte Zellen oder Tumorzellen gezielt abtöten, indem sie zellschädigende Substanzen freisetzen.

    Detaillierte Informationen zur T-Zell-Differenzierung findet man hier.

    Abb. 65: Aktivierte T-Zellen differenzieren sich zu T-Effektorzellen.

    Die Aktivierung von CD4-T-Zellen findet in der Regel zuerst statt. Diese Zellen fungieren als Dirigenten der Immunreaktion. Sobald sie aktiviert sind, helfen sie dabei, die Arbeit anderer Immunzellen zu koordinieren, einschließlich der CD8-T-Zellen. Sie tun dies, indem sie bestimmte Botenstoffe (Zytokine) freisetzen und zusätzliche (kostimulatorische) Signale senden, die die Aktivierung und Unterstützung anderer Zellen des Immunsystems ermöglichen.

    Insgesamt sorgen die Zytokine also dafür, dass die Immunantwort effektiver und gezielter abläuft, ähnlich wie ein Katalysator eine chemische Reaktion beschleunigt.

    Bei der Teilung entstehen tausende von T-Zellen, die alle denselben spezifischen T-Zell-Rezeptor tragen, der das Antigen erkennt.

    Abb. 66: Die aktivierte T-Helferzelle beginnt sich zu teilen. Auch zytotoxische T-Zellen und regulatorische T-Zellen durchlaufen nach ihrer Aktivierung eine Proliferation (Teilung).
     b) B-Zell-Aktivierung 

    B-Zellen können Antigene direkt aufnehmen, ohne auf dendritische Zellen angewiesen zu sein. Dennoch kann die Interaktion mit diesen Zellen wichtig für die Aktivierung der B-Zellen sein.

    Über ihren B-Zell-Rezeptor (BCR), der in vielen verschiedenen Varianten existiert und dadurch eine breite Erkennung von Antigenen ermöglicht, binden B-Zellen spezifische Antigene direkt aus ihrer Umgebung.

    Kleine Antigenmoleküle oder Partikel können direkt in die Lymphgefäße eindringen und mit der Lymphflüssigkeit zu den Lymphknoten transportiert werden, wo sie von B-Zellen aufgenommen werden. In diesem Fall befindet sich die B-Zelle bereits im Lymphknoten, wenn sie das Antigen aufnimmt und verarbeitet. Alternativ kann die B-Zelle auch außerhalb des Lymphknotens auf ein Antigen stoßen. In diesem Fall wandert sie nach der Antigenaufnahme zu den sekundären lymphatischen Organen wie den Lymphknoten.

    Abb. 67: Abgebildet sind mehrere B-Zellen in der B-Zell-Zone im Lymphknoten, jede mit einem einzigartigen B-Zell-Rezeptor (BCR) auf ihrer Oberfläche. Diese BCRs sind das Ergebnis der somatischen Rekombination. Jede B-Zelle kann nur ein spezifisches Antigen binden.

    Nach der Bindung nehmen die B-Zellen das „freie“ Antigen samt BCR durch Endozytose auf, einem Prozess, bei dem sich die Zellmembran einstülpt und den BCR zusammen mit dem Antigen in die Zelle aufnimmt. Dort wird das Antigen intern verarbeitet und anschließend auf MHC-II-Molekülen präsentiert.

    Abb. 68: Die naive B-Zelle präsentiert ihren B-Zell-Rezeptor (BCR), der wie ein membranständiger Antikörper aufgebaut ist. Der BCR bindet spezifisch an ein Antigen, das anschließend aufgenommen und verarbeitet wird und als Antigen-MHC-II-Komplex auf der Oberfläche der B-Zellen erscheint.

    B-Zellen besitzen die Fähigkeit, sowohl direkt Antigene aus der Umgebung zu binden als auch von dendritischen Zellen präsentierte Antigene zu erkennen. Während die direkte Bindung an das Antigen der häufigste Weg ist, können B-Zellen in seltenen Fällen auch aktiviert werden, indem sie mit antigenpräsentierenden Zellen (wie dendritischen Zellen oder Makrophagen) interagieren. In diesem Fall erkennt eine B-Zelle das gleiche Antigen, das auf dem MHC-II-Molekül einer APC präsentiert wird. Diese Bindung zwischen dem BCR der B-Zelle und dem präsentierten Antigen führt zu einer Signalübertragung, die die B-Zelle aktiviert. Die APC kann zudem kostimulatorische Moleküle exprimieren, die zusätzliche Signale liefern, die die Aktivierung der B-Zelle verstärken. Dennoch reicht die Aktivierung einer B-Zelle durch eine APC in der Regel nicht aus, um die B-Zelle vollständig zu aktivieren. Die zusätzliche Unterstützung von T-Helferzellen ist in den meisten Fällen erforderlich.

    Damit eine B-Zelle vollständig aktiviert wird, braucht sie in der Regel noch die Hilfe von T-Helferzellen. Dieser Prozess wird als T-Zell-abhängige B-Zell-Aktivierung bezeichnet.

    T-Zell-abhängige B-Zell-Aktivierung

    Bereits aktivierte T-Helferzellen wandern im Lymphknoten in die Grenzzone zwischen der T-Zell-Zone und der B-Zell-Zone, wo sie mit den B-Zellen interagieren.

    Abb. 69: In der B-Zell-Zone befinden sich B-Zellen in verschiedenen Aktivierungsstadien. Einige B-Zellen sind noch nicht aktiviert und haben weder Antigene aufgenommen noch MHC-II-Komplexe auf ihrer Oberfläche. Andere B-Zellen haben bereits Antigene über ihren B-Zell-Rezeptor (BCR) gebunden (1). Zudem gibt es B-Zellen, die das Antigen verarbeitet haben und es auf MHC-II-Molekülen präsentieren (2). Diese B-Zellen sind weiter aktiviert und interagieren mit T-Helferzellen (3). In der T-Zell-Zone sind naive T-Zellen (hellgrün) sichtbar, die noch kein Antigen erkannt haben. Einige aktivierte T-Helferzellen befinden sich noch in der T-Zell-Zone, während andere bereits in der Grenzzone mit B-Zellen interagieren (3).

    T-Helferzellen, die dasselbe Antigen erkannt haben, binden an den Antigen-MHC-II-Komplex auf der Oberfläche der B-Zellen. Diese Bindung liefert das erste Aktivierungssignal. Infolgedessen exprimieren T-Helferzellen kostimulatorische Moleküle (wie CD40L, die an den CD40-Rezeptor auf den B-Zellen binden). Dies liefert das zweite Signal für die vollständige Aktivierung der B-Zellen. Zusätzlich setzen T-Helferzellen auch Zytokine frei, die das Wachstum, die Differenzierung und die Funktion der B-Zellen fördern.

    Abb. 70: Die Interaktion mit T-Helferzellen aktiviert die B-Zellen vollständig. Die aktivierten B-Zellen proliferieren und differenzieren sich in Plasmazellen und Gedächtnis-B-Zellen.

    Dieser zweistufige Mechanismus – die Bindung an den Antigen-MHC-II-Komplex (erstes Signal) und die Interaktion mit kostimulatorischen Molekülen sowie die Freisetzung von Zytokinen (zweites Signal) – stellt eine wichtige Sicherheitskontrolle dar. Er sorgt dafür, dass eine Immunantwort nur dann ausgelöst wird, wenn sie wirklich notwendig ist. Eine alleinige Aktivierung der B-Zellen durch Antigenerkennung wäre weniger reguliert und könnte das Risiko unerwünschter Reaktionen erhöhen, wie etwa Autoimmunreaktionen.

    Nach der vollständigen Aktivierung beginnen die B-Zellen zu proliferieren und sich in zwei Haupttypen zu differenzieren: in Plasmazellen und Gedächtnis-B-Zellen.

    T-Zell-unabhängige B-Zell-Aktivierung

    Die T-Zell-unabhängige B-Zell-Aktivierung ist ein weniger häufig vorkommender Mechanismus, der bevorzugt bei bestimmten bakteriellen Infektionen auftritt. Bei dieser Art der Aktivierung erkennen B-Zellen Antigene, die in der Regel repetitive Strukturen (d.h. sich wiederholende Muster) aufweisen, wie die Polysaccharide auf der Oberfläche von Bakterien. Diese Antigene können die B-Zell-Rezeptoren (BCRs) auf den B-Zellen direkt kreuzvernetzen und so eine Aktivierung auslösen, ohne die Hilfe von T-Helferzellen zu benötigen.

    Während dieser Prozess schneller abläuft, führt er häufig zu einer weniger robusten und langlebigen Immunantwort im Vergleich zur T-Zell-abhängigen Aktivierung. Zudem entstehen hierbei meist keine Gedächtniszellen, was bedeutet, dass die Immunantwort bei einer erneuten Infektion mit demselben Pathogen nicht so stark und effizient ist.

    5.5.7. Effektorphase

    Während der Aktivierungsphase werden die Immunzellen auf den Erreger „vorbereitet“. In der Effektorphase treten diese aktivierten Immunzellen in Aktion, um den Erreger gezielt zu bekämpfen und zu beseitigen. In dieser Phase fungieren die Immunzellen als Effektoren, die spezifische Maßnahmen ergreifen, um die Infektion zu kontrollieren und zu eliminieren. Die meisten Effektor-T-Zellen verlassen den Lymphknoten, treten in die Blutbahn ein und wandern gezielt zur Infektionsstelle.

    a) T-Helferzellen
    b) Zytotoxische T-Zellen
    c) Plasmazellen
     a) T-Helferzellen 

    T-Helferzellen unterstützen an der Infektionsstelle andere Immunzellen wie Makrophagen, indem sie Zytokine ausschütten, die als Signalstoffe dienen. Diese Zytokine verstärken die Fähigkeit der Immunzellen, Mikroben durch Phagozytose zu beseitigen.

     b) Zytotoxische T-Zellen 

    Zytotoxische T-Zellen hingegen spüren infizierte oder entartete Körperzellen auf und zerstören sie, indem sie den programmierten Zelltod (Apoptose) auslösen.

    Zytotoxische T-Zellen (auch als CTLs oder CD8-T-Zellen bekannt) sind äußerst präzise in ihrer Wirkung. Sie erkennen spezifische Antigene, die in Verbindung mit MHC-I-Molekülen auf der Oberfläche infizierter oder abnormaler Zellen präsentiert werden.

    Abb. 71: Die zytotoxische T-Zelle erkennt die infizierte Zelle über ihren T-Zell-Rezeptor (TCR) und bindet gezielt an sie.

    Nach dieser Erkennung zerstören sie gezielt nur die Zellen, die das entsprechende Antigen tragen. Die Eliminierung der Zielzellen erfolgt hauptsächlich auf zwei Wegen:

    1) Tötung durch Perforine und Granzyme: Perforin bildet Poren in der Zellmembran der Zielzelle, was diese direkt schädigt und einen Kanal schafft, durch den Granzymen in die Zelle eindringen. Granzymen lösen in der Zielzelle den programmierten Zelltod (Apoptose) aus, was schließlich zur Zerstörung der Zelle führt.

    2) Tötung durch Fas-Ligand (FasL): Zytotoxische T-Zellen exprimieren ein Molekül namens Fas-Ligand (FasL), das an den Fas-Rezeptor auf der Oberfläche der Zielzelle bindet. Diese Bindung aktiviert eine Signalkaskade, die ebenfalls die Apoptose einleitet.

    Abb. 72: Eliminierung der Zielzellen erfolgt auf zwei Wegen:

    1) Nachdem die zytotoxische T-Zelle (CTL) an die Zielzelle gebunden hat, entleert sie spezielle Vesikel, sogenannte zytotoxische Granula, in den engen Kontaktbereich zwischen der CTL und der Zielzelle. Diese Granula enthalten Perforin und Granzymen. Perforin bildet Poren in der Zellmembran der Zielzelle, durch die Granzymen in das Zytoplasma eindringen. Dort lösen sie eine Reihe von Prozessen aus, die zur Zerstörung der Zell-DNA und zum Abbau von Zellproteinen führen, was einen geordneten Zelltod (Apoptose) ohne Entzündungsreaktionen bewirkt.
    2) Trifft die CTL auf eine Zielzelle mit dem Fas-Rezeptor auf der Oberfläche, bindet ihr Fas-Ligand (FasL) direkt an diesen Rezeptor, ähnlich einem Schlüssel, der in ein Schloss passt. Diese Bindung aktiviert eine Signalkaskade in der Zielzelle, die zur Apoptose führt. Durch diese Signalkaskade beginnt die Zielzelle, sich selbst abzubauen und stirbt schließlich ab.

    Zytotoxische T-Zellen agieren ähnlich wie Natürliche Killerzellen (NK-Zellen), jedoch mit einem entscheidenden Unterschied: Sie zerstören die Zielzellen kontrolliert und präzise, wodurch die umliegenden Gewebe weitgehend geschont werden.

    Abb. 73: Nachdem die Zielzelle durch die Apoptose zerstört wurde, bleibt sie als eine Ansammlung von Zelltrümmern zurück. Diese Überreste werden von Phagozyten wie Makrophagen erkannt und aufgenommen.

    Diese Videos hier und hier veranschaulichen sehr gut, wie zytotoxische T-Killerzellen arbeiten.

     c) Plasmazellen 

    Nachdem B-Zellen aktiviert wurden, beginnen sie sich rasch zu teilen und in Plasmazellen zu differenzieren, die darauf spezialisiert sind, große Mengen spezifischer Antikörper zu produzieren und freizusetzen. Um diesen komplexen Ablauf besser zu verstehen, schauen wir uns alles Schritt für Schritt an.

    Die aktivierten B-Zellen teilen sich extrem schnell und oft, sodass aus wenigen initialen Zellen in kurzer Zeit tausende von identischen B-Zellen entstehen. Das ermöglicht dem Immunsystem, innerhalb weniger Tage eine große Anzahl an B-Zellen zu produzieren, die alle den passenden BCR tragen und sich entweder zu Plasmazellen differenzieren, um Antikörper zu produzieren, oder zu Gedächtniszellen werden.

    Abb. 74: Proliferation (Teilung) der aktivierten B-Zelle

    Besonders faszinierend ist die Tatsache, dass der B-Zell-Rezeptor (BCR), der auf der Oberfläche jeder B-Zelle sitzt, bereits die Vorlage für den späteren Antikörper ist. Anders gesagt: Der BCR ist eine „Vorschau“ auf den Antikörper, den die Zelle nach ihrer Aktivierung massenhaft ausschütten wird.

    Nochmal hervorzuheben dabei ist das wahre Meisterwerk der Natur: die Art und Weise, wie diese BCRs entstehen. Bereits während der Entwicklung der B-Zelle werden die Gensegmente, die den B-Zell-Rezeptor und somit den späteren Antikörper bilden, völlig zufällig miteinander kombiniert. Das Ergebnis der somatische Rekombination ist eine unfassbare Vielfalt an Antigenbindungsstellen – mit bis zu 10 Milliarden möglichen Varianten.

    Die somatische Rekombination haben wir schon bei den T-Zell-Rezeptoren (TCR) kennengelernt. Wie bei den T-Zellen sorgt auch hier das zufällige Mischen von Genen dafür, dass eine große Vielfalt an Rezeptoren entsteht. Auf diese Weise stellt die Natur sicher, dass für nahezu jeden erdenklichen Eindringling bereits eine passende Immunzelle mit einem passenden Rezeptor zur Verfügung steht. Es ist, als würde das Immunsystem einen gigantischen Vorrat an „Schlüsseln“ (Antikörpern) bereithalten, von denen nahezu jeder zu einem neuen „Schloss“ (Antigen) passt, dem der Körper begegnet. Der entscheidende Unterschied ist jedoch, dass B-Zellen nicht nur Antigene erkennen, sondern auch die passenden Antikörper gegen sie freisetzen.

     III – Dritte Verteidigungslinie: die Antikörper 

    Diese B-Zell-Rezeptoren (BCRs), die noch fest an der Zellmembran gebunden sind, werden auch als membrangebundene Antikörper oder Immunglobuline (Ig) bezeichnet. Sobald sich die B-Zelle in eine Plasmazelle verwandelt, wird der BCR in seiner löslichen Form freigesetzt – als voll funktionstüchtiger Antikörper.

    Plasmazellen – die Antikörper-Fabriken Plasmazellen sind entscheidend für die Immunabwehr, da sie dem Immunsystem in großer Menge spezifische Antikörper bereitstellen. Jede Plasmazelle kann dabei bis zu 10.000 Antikörper pro Minute produzieren.

    Abb. 75: LINKS: B-Zelle mit B-Zell-Rezeptoren (BCR), die fest in der Zellmembran verankert sind. Diese BCRs sind die Vorläufer der späteren Antikörper. Die aktivierte B-Zelle entwickelt sich zur Plasmazelle. RECHTS: Sobald B-Zellen zu Plasmazellen geworden sind, besteht ihre Hauptaufgabe in der Massenproduktion spezifischer Antikörper, wobei ihre DNA nicht mehr verändert wird. Die Plasmazelle produziert lösliche Antikörper und verliert ihre membrangebundenen BCRs. Die produzierten Antikörper werden in kleinen Vesikeln aus der Zelle transportiert.

    Plasmazellen können sich entweder im Lymphknoten ansiedeln, von wo aus sie Antikörper in die Lymphe und das Blut freisetzen, oder sie wandern ins Knochenmark, wo sie langfristig Antikörper produzieren, die ebenfalls von dort in die Blutgefäße gelangen. Manche Plasmazellen verbleiben auch in anderen Geweben, wie der Milz oder den Schleimhäuten.

    5.5.8. Arten von Antikörpern

    Jeder Antikörper setzt sich aus einer variablen und einer konstanten Region zusammen. Die variable Region, die durch somatische Rekombination entsteht, ist für die hochspezifische Erkennung von Antigenen verantwortlich.

    Die konstante Region des Antikörpers bleibt unverändert und bestimmt die Klasse des Antikörpers. Man unterscheidet fünf Klassen (Isotype) von Immunglobulinen:  M, G, A, D, E und bezeichnet sie mit den Kürzeln IgM, IgG, IgA, IgD, IgE.

    Abb. 76: Arten von Antikörpern

    Antikörper bestehen aus einer variablen und einer konstanten Region. Sie werden in zwei Fragmente unterteilt: den Fab-Bereich und den Fc-Bereich. Der Fab-Bereich umfasst die „Arme“ der Y-förmigen Struktur und ist für die Bindung an spezifische Antigene zuständig. Jeder Antikörper besitzt zwei Fab-Regionen, die jeweils eine variable Region enthalten, welche die Antigenbindungsstelle bildet. Der Fc-Bereich ist der „Stamm“ des Antikörpers und vermittelt Effektor-Funktionen des Immunsystems, indem er von Immunzellen wie Makrophagen und NK-Zellen sowie von Komplementproteinen erkannt und gebunden wird.

    Während der Immunantwort werden zu unterschiedlichen Zeitpunkten verschiedene Antikörperklassen produziert:

    Primäre Immunantwort

    IgM: Dies ist der erste Antikörper, der während einer primären Immunantwort produziert wird. IgM-Antikörper erscheinen schnell nach der ersten Exposition (Begegnung) gegenüber einem Antigen und sind besonders wirksam bei der Aktivierung des Komplementsystems.

    IgG: Obwohl IgM der erste Antikörper ist, wird auch IgG bereits bei der ersten Exposition produziert, jedoch etwas später. IgG hat eine höhere Affinität zum Antigen und zirkulieren über einen längeren Zeitraum im Blut, was einen länger anhaltenden Schutz bietet.

    Sekundäre Immunantwort

    IgG: Bei einer erneuten Exposition gegenüber demselben Antigen wird IgG viel schneller und in größerer Menge produziert als bei der primären Immunantwort. Es bietet dadurch einen effektiveren und schnelleren Schutz. IgG kann außerdem die Plazenta passieren und dem Fötus passiven Schutz bieten.

    Spezifische Funktionen

    IgA: Diese Antikörper kommen hauptsächlich in Schleimhäuten und Körperflüssigkeiten wie Speichel, Tränen und Muttermilch vor. Sie spielen eine zentrale Rolle beim Schutz der Schleimhäute vor Infektionen.

    IgE: IgE ist hauptsächlich an allergischen Reaktionen beteiligt und spielt eine Rolle bei der Abwehr von Parasiten.

    IgD: Die Funktion von IgD ist noch nicht vollständig geklärt, aber es wird vermutet, dass es bei der Aktivierung und Reifung von B-Zellen eine Rolle spielt.

    Durch das Messen und Analysieren dieser Antikörperklassen kann man Rückschlüsse auf den Immunstatus, den Infektionszeitpunkt und die Art der Immunreaktion ziehen, was in der klinischen Diagnostik von großer Bedeutung ist.

    a) IgM - der erste Antikörper
    b) Klassenwechsel (Isotypenswitch) zu IgG
    c) IgA - die Schutzbarriere der Schleimhäute
    d) Schleimhautimmunität: Warum IgG dafür ungeeignet ist
    a)  IgM – der erste Antikörper 

    IgM ist der erste Antikörper, den Plasmazellen als Reaktion auf eine Erstinfektion produzieren. Das liegt daran, dass B-Zellen bereits die genetische Information zur Herstellung von IgM besitzen, die sie über ihren B-Zell-Rezeptor (BCR) nutzen.

    IgM-Antikörper kommen als Pentamer vor, was bedeutet, dass sie aus fünf einzelnen Antikörper-Einheiten bestehen, die zusammen ein großes, ringförmiges Molekül bilden.

    Diese Struktur ermöglicht es IgM, bis zu zehn Bindungsstellen für Antigene zu haben (jeweils zwei pro Einheits-Antikörper), was eine besonders effektive Bindung an mehrere Antigenmoleküle gleichzeitig ermöglicht.

    Hier sind einige Gründe für diese Struktur von IgM:

    Erhöhte Bindungsfähigkeit: Durch ihre pentamere Struktur können IgM-Antikörper mehrere Antigene gleichzeitig binden. Dies erhöht ihre Fähigkeit, große Antigenmengen zu erfassen und zu neutralisieren.

    Effektive Komplementaktivierung: Die große Anzahl von Bindungsstellen auf IgM ermöglicht eine besonders effiziente Aktivierung des Komplementsystems. IgM kann durch die Bindung an Antigene und die darauffolgende Bindung an Komplementproteine eine starke immunologische Reaktion auslösen.

    Allerdings neigen IgM-Antikörper dazu, nicht sehr stark am Krankheitserreger zu haften und abzufallen. Daher bieten sie anfänglich noch nicht den optimalen Schutz. IgM kann jedoch schnell und in großen Mengen produziert werden, es ist sozusagen der „erste Wurf“ der Antikörperproduktion. IgM-Antikörper kommen vor allem im Blut vor.

    b)  Klassenwechsel (Isotypenswitch) zu IgG 

    Nachdem das Immunsystem bei einer Infektion anfänglich IgM-Antikörper produziert hat, stellt es später auf die Produktion von IgG-Antikörper um. Diese Umstellung wird als Klassenwechsel oder Isotypenswitch bezeichnet. Der Grund dafür ist, dass IgG-Antikörper für eine gezieltere und länger anhaltende Abwehr besser geeignet sind.

    Während einer Infektion werden fortlaufend B-Zellen aktiviert, die zuvor durch Proliferation entstanden sind. Der Wechsel von IgM zu IgG wird durch Signale von T-Helferzellen angestoßen. Diese senden Zytokine (spezielle Botenstoffe) an die B-Zellen. Diese Signale geben den B-Zellen das „Okay“, die Produktion von IgG-Antikörpern aufzunehmen, die effizienter im Kampf gegen den Erreger sind.

    IgG-Antikörper sind in vielerlei Hinsicht besser als IgM:

    Größere Affinität: Im Verlauf der Immunantwort durchlaufen die B-Zellen einen Prozess, der als Affinitätsreifung bezeichnet wird. Dabei werden die Antikörper immer besser darin, das Antigen fest zu binden. Diese verbesserten IgG-Antikörper binden nicht nur stärker und spezifischer an das Antigen, sondern neutralisieren den Erreger auch effektiver.

    Die Affinitätsreifung ist eine DNA-„Verbesserung“ im Laufe der Infektion. Während der Immunantwort werden die B-Zellen von den T-Helferzellen auch dazu angeregt, ihre Antigenbindungsstellen (variable Regionen der BCR) zu verbessern. Dies geschieht durch einen Prozess, der als somatische Hypermutation bekannt ist. Dabei treten gezielte Mutationen in der DNA der B-Zellen auf, die die Bindungsstellen ihrer Antikörper weiter optimieren. B-Zellen mit besonders gut passenden Antikörpern (hohe Affinität) werden bevorzugt.

    Kleiner und flexibler: IgG-Moleküle sind kleiner und beweglicher als IgM. Dadurch können sie leichter durch das Gewebe dringen und auch in schwer zugängliche Bereiche gelangen, wo die Infektion möglicherweise stattfindet.

    Abb. 77: In der ersten Phase produziert die Plasmazelle IgM-Antikörper, die schnell, aber mit relativ geringer Bindungsstärke (Affinität) gegen das Antigen wirken. Durch den Isotypenswitch stellt die B-Zelle später auf die Produktion von IgG-Antikörper um. Diese sind kleiner, kommen auch in schwer zugängliche Bereich und sind somit effizienter. Der „variable“ Teil des Antikörpers, der das spezifische Antigen erkennt, bleibt im Wesentlichen erhalten, aber er kann durch Affinitätsreifung so modifiziert werden, dass die Bindung an das Antigen stärker wird. Dadurch wird die Immunantwort weiter optimiert, um effektiver gegen den Erreger vorzugehen.

    Längere Halbwertszeit: IgG bleibt länger im Blutkreislauf und bietet so einen längerfristigen Schutz vor dem Erreger.

    Plazenta-Passage: IgG kann die Plazenta passieren und dem Fötus während der Schwangerschaft passiven Schutz bieten, wodurch das Neugeborene in den ersten Lebensmonaten besser vor Infektionen geschützt ist.

    Immunologisches Gedächtnis: IgG-Antikörper spielen eine Schlüsselrolle im immunologischen Gedächtnis. Nach einer Infektion werden spezielle Gedächtniszellen gebildet, die bei einer erneuten Exposition gegenüber demselben Erreger schnell große Mengen an IgG-Antikörpern produzieren können. Dadurch reagiert das Immunsystem bei einer Zweitinfektion viel schneller und effektiver.

    Grafische Zusammenfassung

    Abb. 78: IgM- und IgG-Antikörper-Level über die Zeit

    IgM-Antikörper werden in den frühen Stadien einer Infektion gebildet und sind bereits vier bis sieben Tage nach der Infektion nachweisbar. IgG-Antikörper hingegen entstehen etwa sieben bis vierzehn Tage nach der Infektion und können, abhängig vom Antigen und der individuellen Immunantwort, über Monate oder sogar Jahre hinweg nachgewiesen werden. Während IgM-Antikörper kurzlebig sind und oft auf eine akute Infektion hinweisen, sind IgG-Antikörper langlebiger und spielen eine zentrale Rolle bei der Entwicklung einer dauerhaften Immunität.

    Detaillierte Informationen zu diesen Prozessen findest du in den folgenden Quellen:
    Antibodies & the B cell Receptor”,
    B cells & Plasma Cells“ und
    Antikörper – Abwehrmechanismen der B-Zellen“.

    IgG-Antikörper sind die am häufigsten vorkommende Antikörperklasse im Blut und in anderen Körperflüssigkeiten. Sie finden sich in großer Zahl im Blutkreislauf sowie in Geweben und Organen und sind entscheidend für die Immunantwort gegen Infektionen, die bereits in den inneren Bereichen des Körpers lokalisiert sind. Im Gegensatz dazu übernehmen IgA-Antikörper eine spezialisierte Funktion, indem sie als Schutzbarriere der Schleimhäute fungieren. Entsprechend unterscheidet man zwischen dem systemischen Immunsystem, das den gesamten Körper schützt, und dem mukosalen Immunsystem, das speziell die Schleimhäute verteidigt.

    c)  IgA – die Schutzbarriere der Schleimhäute 

    Während IgG sich auf die Bekämpfung von Krankheitserregern im Inneren des Körpers konzentriert, schützen IgA-Antikörper die äußeren Schleimhäute, die den Übergang von außen nach innen markieren. Sie sind die Hauptakteure der Schleimhaut-Immunität und dafür zuständig, den Körper an Schleimhautoberflächen (wie im Verdauungstrakt, den Atemwegen oder dem Urogenitaltrakt) vor eindringenden Pathogenen zu schützen. IgA Antikörper befinden sich auch in Körperflüssigkeiten wie Speichel und Tränen.

    Schleimhäute bilden eine kritische Barriere zwischen unserem Inneren und der äußeren Umgebung. In diesem Kontext ist es interessant zu betrachten, dass aus biologischer Sicht alles, was sich in unserem Verdauungstrakt befindet, als außerhalb unseres Körpers betrachtet wird. Vom Mund bis zum After verläuft ein kontinuierlich mit Schleimhaut ausgekleideter Hohlraum – eine „Verdauungshöhle“, in die wir Nahrung aufnehmen und in der Verdauungsenzyme sowie Verdauungssäfte abgegeben werden. Obwohl diese Höhle innerhalb des Körpers liegt, wird ihr Inhalt biologisch als Außengebiet angesehen.

    Abb. 79: Organe und Körperregionen, die von mucosalem Gewebe ausgekleidet sind

    Da Schleimhäute im ständigen Kontakt mit der Außenwelt stehen, ist der Schutz durch IgA besonders wichtig.

    Die Immunantwort auf Erreger, die über die Schleimhäute in den Körper gelangen, verläuft ähnlich wie bei Erregern, die direkt in den Körper eindringen. Der folgende Ablauf beschreibt die Reaktion des Immunsystems auf einen Virus, der über die Schleimhaut in den Körper gelangt. Durch die bisherigen Erläuterungen kannst du dir den Ablauf schon sehr gut vorstellen.

    Erster Kontakt mit dem Virus – Angeborene Immunabwehr:
    Wenn ein Virus über die Schleimhaut im Mund in den Körper eindringt, reagieren dort sofort Immunzellen wie Makrophagen, dendritische Zellen und andere Abwehrzellen. Diese lösen Alarm aus und rufen weitere Immunzellen zum Infektionsort. Dendritische Zellen und Makrophagen erkennen den Virus über ihre Mustererkennungsrezeptoren (PRRs) und nehmen ihn durch Phagozytose auf. Anschließend verarbeiten sie den Virus und präsentieren Virusfragmente (Antigene) auf MHC-II-Komplexen auf ihrer Oberfläche. Danach wandern sie über die Lymphgefäße zum nächstgelegenen Lymphknoten, zum Beispiel im Halsbereich, wo sie die Antigene den T-Helferzellen präsentieren.

    Aktivierung der T-Helferzellen – Adaptive Immunabwehr:
    Im Lymphknoten erkennen naive T-Zellen das präsentierte Virus-Antigen auf den MHC-II-Molekülen der dendritischen Zellen. Diese Interaktion aktiviert die T-Zellen, sie differenzieren sich, unter anderem zu T-Helferzellen, die die Immunantwort gezielt verstärken.

    Aktivierung der B-Zellen – Adaptive Immunabwehr:
    Aktivierte T-Helferzellen interagieren mit B-Zellen, die das Virus-Antigen aufgenommen und über MHC-II-Moleküle präsentiert haben. T-Helferzellen binden mit ihrem T-Zell-Rezeptor (TCR) an den MHC-II-Komplex der B-Zellen und senden über kostimulatorische Moleküle (wie CD40L) das Aktivierungssignal an die B-Zellen. Dieses Signal führt dazu, dass die B-Zellen sich zu Plasmazellen differenzieren, die große Mengen an Antikörpern produzieren. Zu Beginn der Immunantwort stellen sie hauptsächlich IgM her, da dies die erste Antikörperklasse ist, die vom Immunsystem gebildet wird.

    Klassenwechsel (Isotyp-Switch) zu IgA:
    Im weiteren Verlauf der Immunantwort, wenn der Körper die Infektion bekämpft, geben aktivierte T-Helferzellen spezielle Signale (Zytokine) ab. Diese Signale unterstützen die B-Zellen dabei, die Art der produzierten Antikörper anzupassen. Ein wichtiges Signal, TGF-β, führt dazu, dass die B-Zellen den Klassenwechsel durchführen und beginnen, IgA-Antikörper zu produzieren. Dieser Wechsel ist vor allem in der Nähe von Schleimhäuten entscheidend, da IgA eine wichtige Rolle bei der Schleimhautimmunität spielt. Nach dem Klassenwechsel differenzieren sich die B-Zellen weiterhin zu Plasmazellen, die dann IgA statt IgM produzieren.

    Abb. 80: Klassenwechsel von IgM zu IgA

    In der ersten Phase produziert die Plasmazelle IgM-Antikörper. Durch den Isotypenswitch stellt die B-Zelle später auf die Produktion von IgA-Antikörper um. Auch IgA-Antikörper durchlaufen eine Affinitätsreifung, um ihre Bindungsstärke zu Antigenen zu optimieren, bevor sie in die Schleimhäute transportiert werden. Plasmazellen können sowohl IgA-Monomere als auch IgA-Dimere produzieren, abhängig davon, wo sie sich befinden und welche spezifische Immunantwort benötigt wird. IgA-Monomere werden hauptsächlich in systemischen Bereichen produziert, also im Blut und in Geweben, die nicht mit Schleimhäuten verbunden sind. Mucosale Plasmazellen in den Schleimhäuten werden durch Signale aus ihrer Umgebung darauf „programmiert“, dimeres IgA zu produzieren. Diese Umgebung fördert die Produktion der J-Kette, die zur Dimerisierung von IgA führt.

    Sekretion von IgA an Schleimhäuten:
    Die aktivierten Plasmazellen, die sich in den Schleimhäuten ansiedeln, produzieren und sekretieren sekretorisches IgA (sIgA). sIgA wird über ein spezielles Transportsystem in das Lumen der Schleimhäute (den Raum, der von der Schleimhaut umgeben ist), zum Beispiel in den Mundraum, abgegeben. Dort kann es das Virus neutralisieren, indem es sich an das Virus bindet und dessen Eindringen in die Schleimhautzellen verhindert.

    Durch diese neutralisierende Wirkung des IgA wird der Virus unschädlich gemacht, bevor er tiefer in den Körper eindringen und weiteren Schaden anrichten kann.

    Neben der Produktion von sekretorischem IgA (sIgA) an den Schleimhäuten wird auch IgG produziert. IgG sorgt für einen systemischen Immunschutz und ist bedeutend, wenn Pathogene wie Viren die Schleimhautbarriere überwinden und in das Gewebe oder den Blutkreislauf eindringen. Beide Antikörper, IgA und IgG, arbeiten also komplementär, um eine umfassende Abwehr zu gewährleisten.

    Struktur des IgA

    In den Schleimhäuten, wie im Verdauungstrakt, den Atemwegen und dem Urogenitaltrakt, liegt IgA überwiegend in dimerer Form vor. Diese Struktur ist speziell an die Umgebung der Schleimhäute angepasst, die durch ständigen Kontakt mit Mikroorganismen, Enzymen und potenziell schädlichen Substanzen gekennzeichnet ist. In dieser rauen Umgebung benötigen Antikörper zusätzlichen Schutz und Stabilität. Das dimere IgA wird von Plasmazellen in mucosalen Lymphgeweben produziert. Von dort wird das IgA durch die Epithelzellen der Schleimhäute in die äußeren Bereiche der Schleimhäute transportiert. Während dieses Transports wird es mit einem sekretorischen Stück (pIgR) ausgestattet (siehe untere Abbildung), das ihm zusätzliche Stabilität verleiht und es vor enzymatischem Abbau schützt. Dadurch bleibt das dimere IgA in der Schleimhautumgebung funktionsfähig und kann seine Schutzfunktion erfüllen.

    Abb. 81: Transport und Sekretion von IgA: Vom dimeren IgA zum sekretorischen IgA (sIgA)

    1) Das dimerisierte IgA, das von den Plasmazellen in der Lamina propria (unter der Schleimhaut) produziert wurde, bindet an den Poly-Ig-Rezeptor (pIgR), der sich auf der basolateralen Oberfläche der Epithelzellen (unterhalb der Epithelzelle) befindet. Der Poly-Ig-Rezeptor ist speziell dafür geeignet, an polymerisierte Immunglobuline (wie dimeres IgA oder pentameres IgM) zu binden, die eine J-Kette besitzen. 2) Der Poly-Ig-Rezeptor mit dem daran gebundenen IgA-Dimer wird dann durch die Epithelzelle transportiert (Transzytose), also von der basolateralen Seite (unterhalb der Epithelzelle) zur apikalen Seite (der Seite, die zur Schleimhaut zeigt). 3) Sobald das IgA-Dimer die apikale Oberfläche der Epithelzelle erreicht, wird ein Teil des Poly-Ig-Rezeptors abgespalten und bleibt als sekretorische Komponente (das sekretorische Stück) fest mit dem IgA-Dimer verbunden. Durch diese Bindung wird das dimerisierte IgA zu sekretorischem IgA (sIgA). Diese Abspaltung geschieht vor der Freisetzung in die Schleimschicht. 4) Das jetzt vollständig gebildete sIgA wird schließlich in die Schleimschicht abgegeben, wo es seine Schutzfunktion ausübt, indem es Mikroorganismen bindet und neutralisiert.

    Das dimere IgA bietet auf der Oberfläche der Schleimhäute einen besonders effizienten Schutz, da es durch die Dimerstruktur eine bessere Bindung an Pathogene und die Schleimhautschicht ermöglicht. Es kann mehrere Antigen-Bindungsstellen bereitstellen, was die Neutralisation von Krankheitserregern erleichtert und deren Anhaftung an die Epithelzellen verhindert.

    In geringen Mengen kommt IgA auch im Blutkreislauf vor, allerdings überwiegend in monomerer Form. Als Monomer ist IgA kleiner und kann daher leichter durch den Blutstrom zirkulieren. Dies ermöglicht eine schnelle Reaktion auf Pathogene oder Antigene, bevor diese sich im Körper verbreiten. Im Blut erfüllt das monomere IgA somit eine Funktion als „frühe Abwehr“, indem es direkt an Krankheitserreger binden kann.

    d)  Schleimhautimmunität: Warum IgG dafür ungeeignet ist 

    In der Schleimschicht, die die Schleimhäute auskleidet, sind vor allem die Antikörper IgA und in geringerem Maße IgM entscheidend für die Immunabwehr, während IgG in der Regel hier nicht vorkommt. Der Grund liegt in der besonderen Struktur und Funktion der Immunglobuline sowie im Mechanismus des Transports durch die Epithelzellen.

    IgA, insbesondere in seiner dimeren Form, ist speziell für den Schutz der Schleimhäute angepasst.

    Es wird von den Plasmazellen in der Lamina propria unter der Schleimhaut produziert und über den Poly-Ig-Rezeptor (pIgR) auf den Epithelzellen an die Schleimhautoberfläche transportiert. Dabei bindet der pIgR spezifisch an die J-Kette des dimeren IgA, was ermöglicht, dass dieses Antikörpermolekül sicher durch die Epithelzelle geschleust wird. Bei diesem Transportprozess wird ein Teil des pIgR als sekretorische Komponente an das IgA gebunden, wodurch es zu sekretorischem IgA (sIgA) wird. Diese sekretorische Komponente schützt das IgA vor enzymatischem Abbau in der aggressiven Umgebung der Schleimhäute und ermöglicht so eine stabile Immunabwehr.

    Im Gegensatz dazu kommt IgG, das nur als Monomer existiert, in den Schleimhäuten nicht vor.

    IgG hat keine J-Kette und kann daher nicht an den Poly-Ig-Rezeptor binden. Es fehlt IgG somit die Fähigkeit, über diesen Mechanismus in die Schleimschicht transportiert zu werden. IgG zirkuliert hauptsächlich im Blut und Gewebe, wo es systemische Abwehrfunktionen übernimmt, während die mucosale Immunabwehr auf sIgA angewiesen ist. Auch IgM, das als Pentamer mit einer J-Kette vorliegt, kann in geringen Mengen durch den pIgR in die Schleimschicht transportiert werden. Aufgrund seiner Struktur ist es ebenfalls gut für den Schutz in den Schleimhäuten geeignet. Dennoch bleibt sIgA der wichtigste Antikörper in der Schleimschicht, der gezielt Pathogene wie Viren neutralisiert und deren Eindringen in den Körper verhindert.

    5.5.9. Die Wirkungsphase der Antikörper

    Nachdem die IgG-Antikörper ins Blut gelangt sind, können sie nahezu jeden Bereich des Körpers erreichen, einschließlich der Lymphknoten und der Orte, an denen Infektionen auftreten. IgA-Antikörper hingegen entfalten ihre schützende Wirkung hauptsächlich an den Schleimhäuten, wo sie lokal produziert und direkt in die Schleimschicht abgegeben werden.

    Die Antikörper wirken auf verschiedene Weisen, um den Körper vor Infektionen zu schützen:

    Erkennung und Bindung: Antikörper erkennen spezielle Strukturen auf der Oberfläche von Krankheitserregern, die sogenannten Antigene, und binden sich daran. Dabei entstehen Antigen-Antikörper-Komplexe (Immunkomplexe IC). Dies ist der erste Schritt, um den Erreger unschädlich zu machen.

    Neutralisation: Durch die Bindung an die Antigene blockieren die Antikörper die gefährlichen Teile von Toxinen und Krankheitserregern, sodass diese den Körper nicht weiter schädigen können.

    Abb. 82: Neutralisation eines Virus durch Antikörper

    1) Das Virus bindet spezifisch an den ACE2-Rezeptor, ein Protein, das auf der Oberfläche vieler Zellen, besonders in der Lunge, vorkommt. Diese Bindung ist der erste Schritt der Infektion, der dem Virus den Zugang zur Zelle ermöglicht. 2) Nach der Bindung an den ACE2-Rezeptor wird das Virus durch rezeptorvermittelte Endozytose in die Zelle aufgenommen. Dieser Prozess führt zur Bildung eines Endosoms, das das Viruspartikel in die Zelle hinein transportiert. 3) Das Virus hat die Zellmembran durch Endozytose erfolgreich durchdrungen und befindet sich nun im Inneren der Zelle. Hier beginnt das Virus, die zellulären Mechanismen zu nutzen, um sich zu replizieren und die Zelle zu infizieren. 4) Antikörper erkennen und binden spezifisch an das Virus, was dessen Neutralisation bewirkt. Diese Bindung verhindert, dass das Virus an weitere Zellen andockt und diese infiziert, und markiert das Virus für die Zerstörung durch das Immunsystem.

    Abb. 83: Neutralisation einer Bakterie durch Antikörper

    1) Bakterien heften sich mithilfe von Adhäsinen an die Zelloberfläche und beginnen die Besiedelung. 2) Einige Bakterien werden von den Zellen aufgenommen und vermehren sich in speziellen Vesikeln im Zellinneren. 3) Antikörper binden an die Adhäsine der Bakterien und verhindern so deren Anhaftung und Aufnahme in die Zellen.

    Markierung für Immunzellen: Antikörper können Krankheitserreger markieren, sodass bestimmte Immunzellen, wie Fresszellen, sie leichter erkennen und zerstören können. Dieser Prozess wird Opsonierung genannt.

    Abb. 84: Markierung für Immunzellen

    Die Makrophage erkennt den Immunkomplex (IC) durch spezialisierte Rezeptoren auf ihrer Oberfläche, die an die konstante Region der angehängten Antikörper binden. Sobald der Immunkomplex erkannt ist, verschlingt die Makrophage den gesamten Erreger und bildet ein Phagosom. Dieses Phagosom verschmilzt dann mit Lysosomen, die spezielle Verdauungsenzyme enthalten. In dem so entstandenen Phagolysosom werden sowohl der Erreger als auch die gebundenen Antikörper durch diese Enzyme abgebaut. Die abgebauten Proteine werden in kleinere Bestandteile zerlegt, die dann entweder von der Zelle wiederverwendet oder als Abfall ausgeschieden werden.

    Aktivierung des Komplementsystems: Die Bindung der Antikörper kann auch eine Kaskade von Reaktionen auslösen, die als Komplementsystem bekannt ist (wie in Kapitel 5.4. ‚Das Komplementsystem‘ beschrieben). Diese Kette von Reaktionen führt zur Zerstörung der markierten Krankheitserreger.

    Abb. 85: Aktivierung des Komplementsystems

    1) Das Komplementprotein C1 bindet an die Antikörper auf der Bakterienoberfläche und startet die Abwehrreaktion. (Im klassischen Weg der Komplementaktivierung durch Antikörper müssen in der Regel mindestens zwei Antikörpermoleküle an das Antigen binden. Diese Bindung bringt die konstanten Regionen der Antikörper näher zusammen, was für die effiziente Bindung des ersten Komplementproteins (C1) notwendig ist.) 2) Komplementproteine formen den Membranangriffskomplex (MAK), der Löcher in die Zellmembran des Bakteriums bohrt. 3) Durch die entstandenen Poren verliert das Bakterium seine Stabilität und löst sich auf (Lyse).

    Zellzerstörung durch das Immunsystem: In einigen Fällen binden Antikörper an infizierte Zellen oder Krebszellen und markieren sie für spezielle Immunzellen, wie z. B. natürliche Killerzellen (NK-Zellen). Diese Immunzellen erkennen die markierten Zellen und zerstören sie gezielt. Dieser Vorgang wird als ADCC (antikörperabhängige zelluläre Zytotoxizität) bezeichnet.

    Abb. 86: Antikörperabhängige zelluläre Zytotoxizität

    1) Eine NK-Zelle bindet an einen Antikörper, der an den Antigen-MHC-I-Komplex einer infizierten Zelle geheftet ist, und setzt zytotoxische Granula frei. 2) Die freigesetzten Substanzen dringen in die Zelle ein, durchlöchern die Membran und lösen den programmierten Zelltod (Apoptose) aus. 3) Nach dem Zelltod bleiben apoptotische Körperchen zurück, die von einer Makrophage aufgenommen und verdaut werden.

    Verklumpung von Erregern (Agglutination): Die Agglutination ist ein Prozess, bei dem Antikörper mehrere Krankheitserreger (wie Bakterien, Viren oder fremde Zellen) gleichzeitig binden und sie dadurch miteinander verklumpen lassen. Diese Verklumpung erschwert es den Erregern, sich zu bewegen, zu vermehren oder Zellen zu infizieren. Außerdem wird es für das Immunsystem einfacher, diese größeren Klumpen zu erkennen und zu beseitigen. Makrophagen und andere Fresszellen können die verklumpten Erreger effizienter aufnehmen und verdauen, da sie durch die Agglutination konzentriert und leichter erreichbar sind.

    Abb. 87: Verklumpung von Erregern (Agglutination)

    1) Antikörper binden mehrere Erreger und verklumpen sie, wodurch das Immunsystem sie leichter beseitigen kann. 2) Makrophagen haben eine außergewöhnliche Fähigkeit zur Phagozytose. Die Membran einer Makrophage ist flexibel und kann sich erheblich vergrößern, um auch große Partikel zu umschließen. Bei der Phagozytose „fließt“ die Membran um die zu verschlingenden Partikel herum. Obwohl die Klumpen durch Agglutination groß erscheinen können, sind Makrophagen durch ihre flexible Membran und effizienten Verdauungsmechanismen bestens dafür gerüstet, solche Agglutinat-Komplexe aufzunehmen und zu verdauen. Die Agglutination ist also ein Mechanismus, der die Effizienz der Immunantwort steigert, indem er die Erreger „zusammenpackt“ und so leichter für Makrophagen und andere Phagozyten zugänglich macht.

    5.5.10. Regulatorische T-Zellen und ihre Rolle im Immunsystem

    Regulatorische T-Zellen (Tregs) sind spezialisierte Immunzellen, die eine Schlüsselrolle bei der Aufrechterhaltung der Immuntoleranz spielen. Ihre Hauptaufgabe besteht darin, eine übermäßige oder fehlgeleitete Immunantwort zu verhindern, die zu Autoimmunerkrankungen oder Gewebeschäden führen könnte. Tregs unterdrücken die Aktivität von Effektor-T-Zellen (wie zytotoxischen T-Zellen und T-Helferzellen) und B-Zellen, die Antikörper produzieren.

    Tregs üben ihre suppressive Funktion auf verschiedene Weisen aus:

    Sekretion von Immunsuppressiven Zytokinen: Tregs produzieren Zytokine wie IL-10, TGF-β und IL-35, die entzündungshemmend wirken und die Aktivität von Effektor-T-Zellen und anderen Immunzellen dämpfen.

    Modulation des Stoffwechsels: Tregs beeinflussen den Stoffwechsel anderer Immunzellen, indem sie den Zugang zu wichtigen Wachstumsfaktoren oder Energiequellen blockieren, was deren Aktivität einschränkt.

    Direkter Zellkontakt: Tregs können über direkten Zell-Zell-Kontakt inhibitorische Signale an Effektor-T-Zellen übertragen, was deren Funktion blockiert.

    Kontrolle der dendritischen Zellen (DCs): Tregs wirken auch auf antigenpräsentierende Zellen wie dendritische Zellen (DCs) ein, indem sie deren Fähigkeit zur Aktivierung von Effektor-T-Zellen herunterregulieren. Dies geschieht entweder durch Hemmung der kostimulatorischen Moleküle auf den DCs, die für die Aktivierung von Effektor-T-Zellen notwendig sind, oder durch Aufnahme von IL-2, einem wichtigen Wachstumsfaktor, den T-Zellen für ihre Vermehrung benötigen.

    Induzierter Zelltod: In manchen Fällen können Tregs sogar den programmierten Zelltod (Apoptose) von überaktiven Immunzellen auslösen, um eine überschießende Immunantwort zu verhindern.

    Tregs sind in der Lage, ihre Zahl und Aktivität dynamisch an die jeweiligen Erfordernisse des Immunsystems anzupassen. Während einer Infektion können sie zunächst weniger aktiv sein, um eine effektive Immunantwort zu ermöglichen. Nach dem Ende der Infektion werden sie jedoch aktiviert, um die Immunreaktion herunterzufahren und das Gewebe zu schützen.

    Bedeutung bei Autoimmunität und Krebs
    Eine Dysfunktion der Tregs kann zu Autoimmunerkrankungen führen, da das Immunsystem nicht mehr ausreichend reguliert wird und körpereigene Gewebe angreift. Allerdings können Tregs bei Krebs die Immunantwort abschwächen und dem Tumor dadurch helfen, der körpereigenen Abwehr zu entgehen.

    Regulatorische T-Zellen sind also entscheidend für die Feinabstimmung und das Gleichgewicht des Immunsystems, indem sie nicht nur die Immunantwort gezielt abschwächen, sondern auch das Risiko von Autoimmunität verringern und die Toleranz gegenüber körpereigenen Geweben aufrechterhalten. Diese präzise Regulierung ist besonders wichtig in der Abschaltphase des Immunsystems, die nach einer erfolgreichen Immunantwort einsetzt.

    5.5.11. Abschaltphase

    Nach der Bekämpfung einer Infektion muss das Immunsystem sorgfältig heruntergefahren werden, um Schäden am Körper zu vermeiden. Wenn dieser Abschaltprozess nicht korrekt funktioniert, kann es zu Autoimmunerkrankungen oder chronischen Entzündungen kommen.

    Die meisten Immunzellen, die während einer Infektion aktiviert werden, sterben nach ihrer Arbeit ab. Dies verhindert, dass der Körper durch eine Überzahl an Immunzellen geschädigt wird. Einige Zellen überleben jedoch und werden zu sogenannten Gedächtniszellen, die dem Körper helfen, zukünftige Infektionen schneller zu bekämpfen. Immunzellen können auf verschiedene Arten sterben, wie durch Apoptose (programmierter Zelltod) oder Nekroptose (eine Form von Zellzerfall). Diese Prozesse sind notwendig, um das Immunsystem nach einer Infektion zu beruhigen und wieder ins Gleichgewicht zu bringen.

    Kontrolle der Immunantwort

    Regulatorische T-Zellen: Nach Abschluss einer erfolgten Immunantwort produzieren die Regulatorischen T-Zellen Hemmstoffe, die die Plasmazellen und Killerzellen hemmen und die Immunreaktion stoppen.

    Rolle von Antigenen: Antigene, also fremde Substanzen, die eine Immunantwort auslösen, verschwinden nach einer Infektion normalerweise aus dem Körper. Dies signalisiert den Immunzellen, dass ihre Arbeit abgeschlossen ist, und in Abwesenheit von Antigenen leiten viele dieser Zellen ihren eigenen Tod durch Apoptose ein.

    Bleiben jedoch kleine Mengen von Antigenen im Körper zurück, kann dies verschiedene Auswirkungen haben. Einerseits kann es die Immunreaktion verlängern, was in manchen Fällen hilfreich ist, um sicherzustellen, dass die Infektion vollständig beseitigt wird. Andererseits kann es auch zu einem unnötigen Überleben und einer anhaltenden Aktivierung von Immunzellen führen, was das Risiko von chronischen Entzündungen oder Autoimmunreaktionen erhöhen könnte.

    Es gibt auch Situationen, in denen das Vorhandensein von Restantigenen dazu beiträgt, eine gewisse Aktivität des Immunsystems aufrechtzuerhalten, was insbesondere bei chronischen Infektionen oder in der Tumorimmunologie von Bedeutung sein kann. Hier kann eine niedrige, kontinuierliche Stimulation durch Antigene das Immunsystem in einem „Wachsamkeitszustand“ halten, der vor einem erneuten Ausbruch der Krankheit schützt.

    Insgesamt hängt die Auswirkung von verbleibenden Antigenen stark vom Kontext ab: Während es in manchen Fällen notwendig und nützlich sein kann, kann es in anderen Fällen zu unerwünschten immunologischen Reaktionen führen.

    Bedeutung von Interleukin-2 (IL-2): IL-2 ist ein Botenstoff des Immunsystems, der das Überleben und die Vermehrung von T-Zellen fördert. Je nach Situation kann IL-2 jedoch auch zum Tod der T-Zellen führen, was zeigt, wie komplex und fein abgestimmt die Regulierung des Immunsystems ist.

    Energiemanagement in Immunzellen: Aktivierte Immunzellen wechseln ihren Stoffwechsel, um sich an die Bedürfnisse während einer Infektion anzupassen. Sie nutzen zum Beispiel mehr Glukose, um Energie zu gewinnen. Am Ende der Immunreaktion müssen sie wieder in einen „Ruhemodus“ zurückkehren, um zu Gedächtniszellen zu werden.

    5.5.12. Gedächtnisphase

    Wie wir bereits erfahren haben, aktiviert die Immunantwort spezialisierte Zellen zur Bekämpfung des Erregers. In diesem Prozess werden nicht nur die akuten Abwehrmechanismen in Gang gesetzt, sondern es entstehen auch Gedächtniszellen. Diese Gedächtniszellen, bestehend aus langlebigen T- und B-Zellen, speichern spezifische Informationen über den Erreger und bilden das immunologische Gedächtnis. Dieses Gedächtnis ermöglicht es dem Immunsystem, sich an zuvor aufgetretene Krankheitserreger zu „erinnern“ und bei erneuter Exposition schneller und wirksam zu reagieren. Gedächtniszellen haben eine sehr lange Lebensdauer, im Gegensatz zu den Effektorzellen, die bereits während oder kurz nach der Infektion sterben. So trägt das immunologische Gedächtnis zur Entwicklung einer langanhaltenden spezifischen Immunität bei.

    T-Gedächtniszellen

    Während einer Infektion beginnt die Entwicklung von T-Gedächtniszellen bereits in den frühen Phasen der Immunantwort. Sobald eine naive T-Zelle ihr spezifisches Antigen über einen MHC-Komplex auf einer antigenpräsentierenden Zelle (APC) erkennt, wird sie aktiviert und beginnt sich rasch zu vermehren. Innerhalb weniger Tage kann eine einzige aktivierte T-Zelle auf Tausende bis Millionen von Klonen anwachsen – dieser Prozess wird als klonale Expansion bezeichnet. Während ein Teil dieser expandierten T-Zellen zu Effektor-T-Zellen wird, die unmittelbar an der Bekämpfung des Erregers beteiligt sind, differenziert sich ein anderer Teil zu T-Gedächtniszellen.

    T-Gedächtniszellen zeichnen sich durch ihre lange Lebensdauer aus, oft über Jahrzehnte hinweg, und bewahren die spezifische genetische Information der ursprünglichen T-Zell-Rezeptor-Rekombination. Sie zirkulieren zwischen Blut und sekundären lymphatischen Organen wie Lymphknoten und Milz und sind stets auf der Suche nach einer erneuten Begegnung mit ihrem spezifischen Antigen.

    Sollten T-Gedächtniszellen auf denselben Erreger treffen, erfolgt innerhalb weniger Stunden eine schnelle und effektive Immunantwort. Im Gegensatz zu naiven T-Zellen benötigen sie keine ständige Aktivierung durch körpereigene Moleküle und sind daher in der Lage, bei erneutem Kontakt zügig und effizient zu reagieren.

    Darüber hinaus sind Gedächtnis-T-Zellen in der Regel zahlreicher als ihre naiven Vorgänger. Dies ermöglicht eine blitzschnelle Reaktion auf eine erneute Exposition gegenüber demselben Erreger, wodurch die Immunantwort so effektiv wird, dass oft keine Krankheitssymptome auftreten.

    B-Gedächtniszellen

    Nach ihrer Aktivierung durchlaufen B-Zellen, ähnlich wie T-Zellen, eine Phase intensiver Vermehrung. Die meisten dieser Zellen entwickeln sich zu Plasmazellen, die Antikörper produzieren, wie z.B. IgG im Blutkreislauf oder IgA an Schleimhäuten. Ein Teil der B-Zellen differenziert sich jedoch zu Gedächtnis-B-Zellen, die sich während der Affinitätsreifung und nach Abschluss der akuten Immunantwort bilden.

    B-Gedächtniszellen zirkulieren durch den Blutkreislauf und die sekundären lymphatischen Organe, wie Lymphknoten und Milz, und sind auf der Suche nach ihrem spezifischen Antigen. In ihrem „ruhenden“ Zustand sind sie bereit, bei einer erneuten Begegnung mit dem Antigen schnell aktiviert zu werden.

    Sobald B-Gedächtniszellen ihr Zielantigen erkennen, differenzieren sie sich rasch zu Plasmazellen, die entweder IgG-Antikörper im Blut oder IgA-Antikörper an Schleimhäuten produzieren, um das Pathogen zu neutralisieren. Diese Mobilität und kontinuierliche Überwachung von Blut, Schleimhäuten und lymphatischen Geweben sind entscheidend für ihre Rolle in der sekundären Immunantwort.

    Anmerkung
    Die genauen Mechanismen, die die Entstehung, das Überleben und die Kontrolle von Gedächtniszellen steuern, sind noch nicht vollständig verstanden.
    [Beendigung der Immunreaktion]

    Eine sehr schöne Zusammenfassung der adaptiven Immunantwort findet man in diesen Videos:
    Cellular Immunity – Adaptive Immunity part 1
    Humoral Immunity – Adaptive Immunity part 2

    5.6. Zusammenfassung

    Abb. 88: Die Phasen der Immunantwort während einer Infektion

    Das Diagramm veranschaulicht die Phasen der Immunantwort während einer Infektion, beginnend mit dem Eindringen von Krankheitserregern bis hin zu ihrer Beseitigung. Es zeigt den zeitlichen Verlauf  der Infektion (x-Achse) und die Anzahl der Krankheitserreger im Körper (y-Achse) in Bezug auf die Immunreaktion.

    Etablierung einer Infektion: Dies ist die Anfangsphase der Infektion, unmittelbar nachdem die Krankheitserreger in den Körper eingedrungen sind. In dieser Phase beginnen sich die Krankheitserreger zu vermehren, und die körpereigenen angeborenen Abwehrmechanismen, wie Makrophagen und natürliche Killerzellen, versuchen, die Infektion einzudämmen. Wenn die Krankheitserreger erfolgreich die ersten Verteidigungslinien überwinden, etabliert sich die Infektion. In dieser Phase ist die Anzahl der Krankheitserreger noch relativ gering, kann jedoch schnell ansteigen.

    Aktivierungsphase: Sobald die Anzahl der Krankheitserreger einen bestimmten Schwellenwert überschreitet, der durch die Antigenmenge bestimmt wird, setzt die adaptive Immunantwort ein. Diese Phase umfasst die Aktivierung von T-Zellen und B-Zellen, die spezifische Immunzellen sind, die das Pathogen gezielt erkennen und bekämpfen können. Diese Phase dauert mehrere Tage, da das Immunsystem die passenden Abwehrmechanismen entwickeln muss. Die Anzahl der Krankheitserreger kann weiterhin ansteigen, während die adaptive Immunantwort vorbereitet wird.

    Effektorphase: In dieser Phase ist die adaptive Immunantwort vollständig aktiviert. T-Zellen und Antikörper greifen gezielt die Krankheitserreger an und zerstören sie. Die Anzahl der Krankheitserreger erreicht ihren Höhepunkt und nimmt dann rapide ab, da das Immunsystem die Kontrolle über die Infektion gewinnt. Dies ist die entscheidende Phase, in der das Pathogen schließlich beseitigt wird.

    Gedächtnisphase: Nachdem das Pathogen beseitigt ist, tritt die Immunantwort in die Gedächtnisphase ein. In dieser Phase verbleiben Gedächtniszellen (spezifische T- und B-Zellen) im Körper, die auf eine erneute Infektion mit demselben Pathogen vorbereitet sind. Diese Zellen ermöglichen eine schnellere und effektivere Immunantwort, sollte der Organismus erneut mit dem gleichen Erreger konfrontiert werden. Die Krankheitserreger wurden eliminiert, und das Immunsystem hat ein „Gedächtnis“ für dieses spezifische Pathogen entwickelt.

    Von der anfänglichen Etablierung der Infektion über die Aktivierung und Effektorphase der adaptiven Immunantwort bis hin zur langfristigen Gedächtnisbildung wird deutlich, wie das Immunsystem auf Krankheitserreger reagiert und sich an zukünftige Infektionen anpasst. Am Ende dieses Prozesses ist der Körper vorbereitet und in der Lage, schneller und effektiver auf das gleiche Pathogen zu reagieren.

    Man ist immun.


    6. Verborgene Verteidigung – die Macht der Kreuzimmunität

    Wenn unser Körper mit einem Erreger in Kontakt kommt, setzt er eine erstaunlich komplexe Abwehrreaktion in Gang. Anstatt nur auf einen bestimmten Antikörpertyp zu setzen, bildet unser Immunsystem eine Vielzahl unterschiedlicher Antikörper, die verschiedene Teile des Erregers angreifen.

    Ein fremdes Molekül (Antigen), dass das Immunsystem erkennt, besteht oft aus mehreren kleinen Abschnitten, den sogenannten Epitopen. Diese Epitope sind spezifische Bereiche auf der Oberfläche des Antigens, die von Antikörpern oder T-Zell-Rezeptoren erkannt werden. Jeder Epitop hat eine einzigartige Struktur, die von verschiedenen Antikörpern gebunden werden kann. Dabei konzentriert sich das Immunsystem oft auf die wichtigsten Bereiche des Erregers, wie zum Beispiel die Bindungsstellen an Wirtszellen, wie das Spike-Protein, oder andere funktionell wichtige Proteine, die für die Virusstruktur und -vermehrung wichtig sind, etwa Membranproteine.

    Dadurch entstehen nicht nur Antikörper, die auf einen einzigen Teil des Virus abzielen, sondern eine ganze Bandbreite, die verschiedene Abschnitte des Virus angreift. Diese vielfältige Immunantwort hilft dabei, den Erreger auf verschiedenen Wegen zu bekämpfen und erhöht die Chancen, ihn unschädlich zu machen.

    Abb. 89: Interaktion von Virus und Immunsystem: Strukturen, Epitope und Antikörper

    1) Dieses Bild zeigt eine schematische Darstellung eines Virus, an dessen Oberfläche Spike-Proteine herausragen. Diese Spike-Proteine, die für die Bindung an Wirtszellen benötigt werden, sind charakteristisch für einige Virusarten. Darüber hinaus sind kleinere Membran- und Hüllproteine in die Virushülle eingebettet, die zur Stabilität und Funktion des Virus beitragen. 2) Auf dem Spike-Protein sind verschiedene Epitope sichtbar – spezifische Bereiche, an die Antikörper binden können. Auch Membran- und Hüllproteine können als Zielstrukturen für Antikörper dienen. 3) Spezifische Antikörper binden sowohl an die Epitope des Spike-Proteins als auch an das Membran- und Hüllprotein. Durch die gezielte Bindung blockieren die Antikörper die Funktion des Virus und neutralisieren es.

    In der Welt der Mikroben herrscht jedoch ein ständiger Wettlauf. Viren und Bakterien verändern sich, um dem Immunsystem zu entkommen. Sie ändern ihre Oberflächenstrukturen, damit sie als „neu” erkannt werden und eine frühere Immunantwort weniger effektiv ist.

    Allerdings sind diese Veränderungen an den Oberflächenstrukturen oft geringfügig. Das bedeutet, dass sich nur bestimmte Teile des Erregers ändern, aber nicht alle. Wenn man früher beispielsweise mit einem Grippevirus infiziert war, ist es möglich, dass einige der gebildeten Antikörper auch an ein leicht verändertes Grippevirus binden können.

    Hier kommt die Kreuzimmunität ins Spiel: Auch wenn das Virus mutiert ist, können einige Antikörper, die ursprünglich gegen den alten Erreger gerichtet waren, ähnliche Bereiche des neuen Erregers erkennen. Das bedeutet, dass das Immunsystem in der Lage ist, auch auf verwandte Viren zu reagieren, selbst wenn sie leicht verändert sind.

    Abb. 90: Vergleich der alten und neuen Virusvarianten

    Links eine schematische Darstellung eines älteren Virus mit intakten Proteinen (Spike-, Hüll- und Membranprotein). Rechts das neue Virus, das veränderte Epitope im Spike- und Membranprotein aufweist, jedoch mit unverändertem Hüllprotein. In der Mitte sind die Antikörper abgebildet, die trotz der Veränderungen am neuen Virus weiterhin an bestimmte Epitope des Spike-Proteins sowie an das Hüllprotein binden können.

    Kreuzimmunität ist ein faszinierendes Konzept, das zeigt, wie unser Immunsystem nicht nur gegen genau bekannte Erreger reagiert, sondern auch gegen verwandte Erreger, die ähnliche Eigenschaften besitzen. Sie bezeichnet die Fähigkeit des Körpers, durch eine frühere Infektion mit einem bestimmten Erreger auch teilweise gegen verwandte Erreger geschützt zu sein. Das kann bedeuten, dass eine Person bei einer erneuten Infektion mit einem ähnlichen Virus weniger schwer erkrankt oder sogar vollständig geschützt ist.

    Meistens ist die Immunantwort bei Kreuzimmunität etwas schwächer, da die Antikörper nicht perfekt zu dem neuen Virus passen. Ihre Bindungsfähigkeit ist oft reduziert, was bedeutet, dass sie weniger effektiv sind, das neue Virus vollständig zu neutralisieren. Trotzdem kann diese abgeschwächte Reaktion dabei helfen, die Krankheit zu lindern oder den Erreger schneller unter Kontrolle zu bekommen.

    Wenn das Immunsystem mit einer neuen Virusvariante konfrontiert wird, die sich stärker unterscheidet, beginnt es, neue und speziellere Antikörper zu produzieren. Die bereits vorhandenen Antikörper durch Kreuzimmunität können dem Körper jedoch einen kleinen Vorteil verschaffen, indem sie den Erreger zumindest teilweise bekämpfen, bis die gezieltere Abwehr aufgebaut ist.

    Kreuzimmunität zeigt eindrucksvoll, wie flexibel und anpassungsfähig unser Immunsystem im ständigen Wettlauf gegen Krankheitserreger ist.


    7. Wichtige Erkenntnisse zum Mitnehmen

    Ein Meisterwerk der Natur: Unser Immunsystem ist das Ergebnis von Millionen Jahren Evolution. Es funktioniert wie eine hochentwickelte und mächtige Armee, die ständig bereit ist, uns zu schützen. Dabei passt es sich kontinuierlich an und entwickelt sich weiter, um neuen Bedrohungen effektiv begegnen zu können.

    Fremd vs. Selbst: Das grundlegende Prinzip des Immunsystems besteht darin, zwischen körpereigenen und fremden Zellen zu unterscheiden.

    Bereits bei der Geburt geschützt:  Schon ab der Geburt besitzt der Mensch mindestens eine Immunzelle für jeden potenziellen Erreger auf diesem Planeten.

    Die Rolle der Lymphknoten: Die adaptive Immunantwort erfordert, dass Krankheitserreger oder ihre Teile in die Lymphknoten gelangen (bzw. in die sekundären lymphatischen Organe), um die Produktion von Antikörpern zu starten.

    Zwei Arten von Immunschutz: Es gibt das systemische Immunsystem, das über IgG-Antikörper den gesamten Körper schützt, und das mukosale Immunsystem, das die Schleimhäute mit IgA-Antikörpern verteidigt.

    Kreuzimmunität: Kreuzimmunität beschreibt die Fähigkeit des Immunsystems, durch eine frühere Infektion mit einem ähnlichen Erreger auch gegen neue, verwandte Erreger geschützt zu sein. Dies kann einen zusätzlichen Schutzmechanismus bieten.


    8. Schlusswort

    Die hier vorgestellten Einblicke in unser Immunsystem bieten einen spannenden Überblick über die biologischen Prozesse, die unseren Körper vor Bedrohungen schützen und unser Überleben sichern. Auch wenn wir bereits viel über die Funktionsweise des Immunsystems wissen, bleibt vieles noch unentdeckt und unvollständig erforscht.

    Ein interessantes Beispiel für die fortwährende Entwicklung unseres Wissens ist das Konzept der „trainierten Immunität“. Lange Zeit galt die angeborene Immunität als starr und unveränderlich – als eine unspezifische Abwehrlinie des Körpers, die in erster Linie auf akute Bedrohungen reagiert. Im Gegensatz zur adaptiven Immunität, die sich durch das Gedächtnis von T- und B-Zellen auszeichnet, schien die angeborene Immunität nicht in der Lage, sich anzupassen oder zu lernen. Doch neueste Forschungen haben gezeigt, dass auch die angeborene Immunität eine Art „Gedächtnis“ entwickeln kann. Bestimmte Zellen des angeborenen Immunsystems, wie Makrophagen und natürliche Killerzellen können durch frühere Begegnungen mit Pathogenen so modifiziert werden, dass sie bei späteren Infektionen schneller und effektiver reagieren können. Epigenetische Veränderungen ermöglichen es diesen Zellen, über längere Zeiträume hinweg im Gewebe präsent zu bleiben und die Immunabwehr zu unterstützen. [Angeborene Immunzellen sind lernfähiger als gedacht] Dieses neu entdeckte Potenzial erweitert unser Verständnis der angeborenen Immunität und zeigt, dass auch diese unspezifische Abwehr eine bemerkenswerte Fähigkeit zur Anpassung besitzt.

    Auch wenn wir noch nicht alles entdeckt und verstanden haben, verstehen wir dennoch eines: Diese faszinierende und unsichtbare Welt in uns ist der Schlüssel zu unserer Gesundheit und unserem Wohlbefinden und verdient daher unsere fortwährende Aufmerksamkeit und Pflege.


    Quellen (Stand vom 04.10.2024)

  • Smart Governance

    Smart Governance

    The Art of Governing

    If you ask ChatGPT impartially about associations with the term „Smart Governance” and request a satirical description, you might get the following suggestion:

    Smart Governance is the visionary concept that makes us believe we live in a perfect symbiosis of technology and administration, while in reality we are trapped by an invisible web of algorithms, data streams and bureaucratic surveillance. Imagine a world in which your decisions are no longer made by you, but by an AI that knows exactly what you want – before you do.

    In the era of smart governance, friendly, omniscient AIs monitor your every move. These well-meaning digital shepherds are always ready to tell you when it’s time to get up, when you should go to work and whether your jogging route is particularly efficient today – all in the name of your productivity and health, of course.

    Forget the freedom to make spontaneous decisions. Your to-do list is maintained by an almighty algorithm that optimizes every aspect of your life. Why think about what you want for dinner when smart governance has already calculated the perfect meal plan for you?

    In this utopian world of smart governance, there are no secrets. Your data is openly accessible because transparency is key. From your financial transactions to your latest doctor visits, everything is public to ensure everyone is on the same page. After all, why would anyone have anything to hide?

    Your behavior is constantly corrected by subtle hints (nudges). Do you want to eat the last chocolate in the cupboard? A gentle hint on your smartphone will alert you to the fact that you have already reached your calorie limit. In this way, you learn to always make the right” decisions without the burden of thinking.

    Your opinion counts – at least in theory. Automated systems take the effort out of voting by deciding on the basis of your previous preferences. After all, the AI has a better understanding of your needs and wishes than you do.

    Smart governance is the triumphant evolution of the transparent citizen, in which you no longer have to worry about making your own decisions. In this satirical vision of the future, you are no longer the master of yourself, but a well-supervised subject in a perfectly organized digital paradise. All for the higher goal of efficiency and optimization – welcome to the smart world of tomorrow!

    Before we dive into the wonderful world of smart governments, let’s first clarify the basic terms. And don’t worry, it won’t be as complicated as a politician trying to answer a simple question!

    The term „smart” has undergone a fascinating development. It originally comes from the Old English „smeart” and meant something like „painful” or „stinging”. Yes, you read that right – if you were stung by a wasp back then, you would have said: „That was smart!” Nowadays, however, „smart” means something completely different. It stands for cleverness, efficiency and technology – much like your smartphone, which is smarter than some politicians!

    Let’s move on to the next term ‚governance‘. This comes from the Latin and means something like ’steering‘ or ‚directing‘. It is therefore about the art and science of leading a society, making decisions and maintaining order. Think of governance as a big chess game in which the citizens are the pawns – but without the risk of someone having to sacrifice the pawns.

    But how does simple Governance become Smart Governance? It’s quite simple: you add technology, data analysis, and a dash of innovation. The result is a government that reacts faster, is better informed, and even reads your emails—well, of course, only in the best sense! In the world of Smart Governance, the classic question „Who rules the world?” magically transforms into „Who is the smartest in the room?”.

    Governance and Smart Governance are like siblings fighting over the remote control – only this one is about control over entire nations! But let’s not forget what really binds these two siblings together: Power. Power to make decisions, power to change things, and power to decide who orders the pizza at the next cabinet meeting.

    Governance and Smart Governance are the frameworks through which power is exercised, controlled, and legitimized—much like the invisible wizard behind the scenes who rules the political stage. But what does power actually mean?

    Power is a fascinating force that operates within the social relationships and structures of our world. It refers to the ability of a person or group to influence or control the behavior, decisions or actions of others. Whether in politics, business, society or on a personal level, power manifests itself in many different ways and shapes our daily lives.

    From political authority and social prestige to economic influence, power takes various forms and dimensions that are intertwined and shape our world in complex ways. It can be both obvious and direct as well as subtle and indirect, and it is often unevenly distributed, leading to tensions, injustice, or even conflicts.

    The feeling of having no power over people and events is generally unbearable to us. When we feel helpless, we feel miserable. No one wants less power; everyone wants more. In the world today, however, it is dangerous to seem too power hungry, to be overt with your power moves. We have to seem fair and decent. So, we need to be subdecongenial yet cunning, democratic yet devious.
    Robert Greene, POWER – The 48 Laws of Power

    The urge for power is a fundamental human need. However, in a world characterized by democratic principles and human rights, the direct and overt exercise of power is often unacceptable. Instead, it requires subtle strategies and tactics to gain and maintain power while maintaining an image of fairness and decency. In a world characterized by increasing transparency and the pursuit of justice, the ability to exercise power in smart and skillful ways is critical to achieving long-term goals and bringing about change. This does not mean that ’smart governance‘ should be manipulative or unethical. On the contrary, it requires a balanced understanding of ethical boundaries and a careful balance between power and responsibility.

    Michel Foucault, a significant thinker in the analysis of power structures, emphasized the ubiquity of power in social structures and interactions. He argued that power is not only exercised from top to bottom but also comes from various directions and levels. This perspective highlights the complexity and multifaceted nature of power relations and reminds us that power is not confined to specific institutions or individuals but is present in the smallest and most everyday interactions.

    Power is everywhere: not that it engulfs everything, but that it comes from everywhere.
    Michel Foucault, The History of Sexuality

    Foucault’s ideas emphasize the importance of a comprehensive understanding of power and demonstrate that power is not only exercised through overt confrontation or visible authority but also through subtle mechanisms of normalization, discipline, and surveillance. In a world where power often operates behind the scenes, it is crucial to recognize and critically examine these hidden dynamics to achieve a more just and balanced power relationship.

    In the upcoming chapters, we will first turn our attention to the theoretical foundations of power in a society and analyze its relationship with Governance and Smart Governance. We will explore how power structures are organized both formally and informally and how they are exercised through various mechanisms—political, economic, and social.

    Subsequently, we will examine concrete examples such as the COVID-19 policy and the One-Health approach to illustrate different forms of governance.

    Furthermore, we will highlight some key technological pillars of Smart Governance and provide an outlook on the future of this development.

    Through this in-depth analysis and investigation, we aim to foster a deeper understanding of the dynamics of Power, Governance, and Smart Governance, and encourage readers to critically reflect on the ways in which power is exercised and directed in our modern world.


    1. Governmentality – The Visible and Invisible Threads of Power
    1.1. The Link between Knowledge and Power
    1.2. Biopolitics
    1.3. Dispositives of Power
    1.4. Disciplinary Power
    1.5. Technologies of the Self
    1.6. Resistance and Counterpower
    1.7. Summary
    2. Corona Crisis: Governance and Biopolitics in a State of Emergency
    3. One Health Approach – Prevention Through Continuous Governance
    4. The Technological Pillars of Smart Governance
    4.1. The European Digital ID
    4.2. Technological Self-management as the Foundation of Smart Governance
    4.3. Digital Twins as the Basis for Smart Governance Strategies
    4.4. Intelligent Money – Smart Money and Smart Governance
    5. A Glimpse into the Future – Smart Governance at Its Best
    6. Smart Resistance
    7. Epilogue – Is Smart Governance Truly the Only Option?

    1. Governmentality – The Visible and Invisible Threads of Power

    In his analysis of forms of governance and ruling in modern societies, Foucault introduces the concept of „Governmentality”. This term combines the words ‚government‘ and ‚mentality,‘ and refers to the ways in which techniques and practices of governance deeply penetrate and influence people’s thinking and behavior.

    Foucault argues that governance is not merely a matter of political institutions or state authority but encompasses a complex network of knowledge, measures, and techniques aimed at steering and guiding human behavior. It involves not only the direct exercise of coercion or control but also the construction of specific systems of knowledge, norms, and behaviors that subtly influence individuals.

    Governmentality surrounds us like a three-dimensional matrix. It has different faces and sometimes contradictory manifestations, so that we often „can’t see the wood for the trees”. The following classification of its most important aspects can provide a simple orientation aid in this ‚power jungle‘.

    1.1. The Link between Knowledge and Power

    The phrase „knowledge is power” has established itself over the centuries and is often interpreted to mean that someone with extensive knowledge also possesses significant influence and superiority over others. This notion does not always carry a positive connotation: the more one knows about a person, the more control one can exert over them and exploit their weaknesses.

    In Foucault’s analysis, knowledge itself is an instrument of power, operating at both macro and micro levels. It is not neutral but is always intertwined with power processes that profoundly affect social structures and individual lives. Those who possess knowledge or control over it also wield power over others.

    Knowledge involves understanding patterns, connections, and meanings. It is created when information is analyzed, linked, and interpreted within a coherent and useful framework. Information arises from data when the latter is placed in context and interpreted. Data, in turn, are raw pieces of information that can be collected.

    The sheer volume of available data can certainly expand the possibilities for acquiring knowledge, but simply increasing the amount of data does not automatically lead to more knowledge. Instead, it is crucial how data are collected, analyzed, interpreted, and placed into a useful context. The quality of the data, the methods of analysis, and the ability to synthesize and interpret information meaningfully play a critical role in transforming data into knowledge.

    The linking of knowledge and power is a key driving force behind the digitalization of modern societies. Digitization generates, collects and analyses huge amounts of data (Big Data). Big data includes information from various sources such as social media, sensors, transactions, medical records and more. Governments and companies use big data and advanced analytics techniques to collect, analyze and interpret extensive information about the population. This data often includes personal information such as demographics, behavioral patterns, consumer behavior, health data and social interactions.

    Artificial intelligence (AI) is increasingly being used to gain insights from these analyses. AI encompasses technologies that enable computers to perform tasks that would normally require human intelligence. Through the use of machine learning (ML), a subfield of AI that focuses on algorithms and models that enable computers to learn from data and make predictions, predictive models are being developed that can forecast future events.

    The combination of big data, artificial intelligence (AI) and machine learning (ML) offers governments and companies new tools. They can use them to identify trends, carry out risk assessments and predictive analyses, implement monitoring programs, plan interventions, allocate resources, control social processes, make informed decisions and ultimately exercise power.

    The „Link between Knowledge and Power” is ubiquitous and omnipresent.

    Governments and businesses use the data they collect to implement surveillance and control mechanisms. This ranges from state surveillance aimed at combating crime and terrorism to corporate use for influencing consumer behavior and securing market share.

    Big data analysis and ML can be used to carry out predictive analyses to combat epidemics, control traffic flows or plan urban infrastructure and make political decisions on this basis.

    By collecting and analyzing health data (electronic patient records, health apps, genetic data), health authorities and institutions can take more precise and effective measures for preventive and curative healthcare. These measures can also be used to monitor and manage health behavior (e.g. vaccination campaigns, quarantine measures, etc.).

    In the education sector, data on student performance and behavior are collected and analyzed to develop educational strategies tailored to the individual needs of students. This not only impacts education policy but also influences the future opportunities and prospects of the students.

    Companies use data analysis to increase productivity and efficiency, optimize work processes and monitor and control employee behavior.

    Platforms like Facebook, Google, and Amazon collect extensive data on their users and use it to provide personalized content and advertising that influences and directs user behavior. These platforms hold immense power due to the knowledge derived from the data of their billions of users. They can shape public opinion, influence purchasing decisions, and even promote or hinder political movements.

    As a central aspect of governmentality, the connection between knowledge and power is put into practice through Smart Governance.

    1.2. Biopolitics

    A fundamental component of governmentality is biopolitics, which deals with the comprehensive management of the population by state and other institutions. It encompasses many aspects of human behavior and social life. This includes measures related to healthcare, social policy, and demographic statistics, as well as other state interventions that impact the life and well-being of the population. Biopolitics further covers important areas such as reproduction and family policy, nutrition and consumption, education and upbringing, work and employment, environmental protection and sustainability, security and surveillance, migration and citizenship, as well as sexuality and gender politics.

    Through the introduction of laws, policies, and standards, biopolitics manages and regulates the life of the entire population in all its aspects. With these comprehensive measures, biopolitics aims to steer the behavior of the population and achieve specific societal goals.

    Here are a few specific examples:

    In the realm of healthcare, many countries have laws that mandate certain vaccinations to prevent the outbreak and spread of infectious diseases. For example, the Measles Protection Act requires measles vaccinations for children in daycare centers and schools, as well as for employees in medical facilities and community centers.

    Other laws and measures serve to control and contain epidemics, such as the Infection Protection Act (IfSG) in Germany. This legislation regulates measures for the prevention and control of infectious diseases in humans, establishing quarantine protocols and reporting requirements.

    Through compulsory education, curricula, and educational standards, education systems are used not only to impart knowledge and skills but also to promote social norms and values considered crucial for the stability and progress of society.

    Food production guidelines, nutritional standards or programs to combat obesity are used to regulate nutrition and consumption. This allows governments to influence the health and behavior of the population in order to achieve certain health or economic goals.

    Through environmental laws and standards, governments can regulate the behavior of individuals and businesses to achieve long-term ecological goals.

    Immigration laws can regulate migration and influence the determination of citizenship as well as the demographic composition and cultural dynamics within a state.

    Laws concerning equality, LGBT rights, and sexual education, which address sexual orientation and gender identity, have profound impacts on social norms within society.

    etc.

    Through the advancing digitalization of nearly all aspects of societal life, new terms such as Smart Health, Smart Cities, Smart Economy, etc., are continuously defined. The power generated through knowledge is concretely and perceptibly implemented in daily governance and administration through biopolitical measures.

    The realization of biopolitical strategies and goals requires corresponding infrastructure and mechanisms. This brings us to the so-called dispositives of power.

    1.3. Dispositives of Power

    Dispositives are networks of various elements such as institutions, laws, regulations, administrative measures, and scientific discourses that work together to achieve specific societal goals. These networks create and implement the frameworks within which power is exercised.

    Biopolitics operates within and through the dispositives of power. The networks that constitute these dispositives are the structures through which biopolitical strategies are implemented. For instance, biopolitics utilizes institutions such as hospitals, social services, schools, media, businesses across various industries, and prisons—all of which are components of the dispositives of power.

    Dispositives of power represent the means and mechanisms through which biopolitical measures are coordinated and implemented. A dispositif for public health, for example, might include hospitals, health laws, vaccination campaigns, and medical research, all working together to achieve the health objectives of biopolitics.

    Dispositives of power enable the normalization and control of populations. Biopolitics aims to promote certain norms and behaviors, and the dispositives create the frameworks within which these norms and behaviors are established as „normal” and „desirable”. Dispositives integrate various elements of society and create an environment in which certain behaviors are encouraged while others are discouraged.

    This shapes and directs people’s behavior in subtle and often invisible ways. Instead of overt coercive measures, the dispositives use knowledge systems, discourses and institutional practices to influence people’s behavior.

    The practical implementation is usually as follows:

    Carefully organized collections of knowledge and information, such as scientific studies and news reports, can provide the foundations upon which people base their views and decisions. (When people are informed through scientific studies that vaccinations can prevent diseases, they are more likely to be willing to get vaccinated.)

    These can be combined with conversations and discussions in society about specific topics. These conversations take place in the media, in politics and in everyday life. These discourses shape people’s opinions and attitudes. (The way the media presents issues influences public opinion. When the media frequently report on the dangers of climate change, public awareness increases and people are more willing to make environmentally friendly decisions, such as reducing plastic waste or using public transportation.)

    In most cases, these actions lead to the introduction of rules and norms to which people must adhere. (By implementing vaccination programs and preventive health check-ups in hospitals and clinics, the population is regularly encouraged to undergo check-ups and vaccinations.)

    Smart governance can be seen as a modern expression of the dispositives of power that extends and deepens traditional concepts of regulation, standardization and surveillance through state-of-the-art technologies and data analysis.

    A dispositive can include disciplinary power as one of the methods of exercising power.

    1.4. Disciplinary Power

    While biopolitics focuses on the management of populations, disciplinary power focuses on the regulation of individuals. Both forms of power aim to control and optimize people’s behavior. While biopolitics operates at the macro level by regulating the conditions and circumstances of the entire population, disciplinary power intervenes at the micro level by shaping the bodies and behaviors of individuals. Both forms of power complement each other and create a comprehensive system of social control.

    Disciplinary power is exercised through surveillance, standardization, punishment and reward, education and training. It aims to discipline individuals, standardize their bodies and behaviors and make them productive.

    Most of you will likely first think of prisons and penal systems. Indeed, the criminal justice system in democratic societies relies on disciplinary power to sanction and correct deviant behavior. Prisons and correctional facilities are institutions where surveillance, punishment, and rehabilitation play a central role.

    However, most of us encounter disciplinary power much more frequently than we might realize.

    Schools are a classic example of institutions that exercise disciplinary power. Through curricula, class rules, exams and monitoring systems, students are encouraged to behave according to norms and achieve certain performance standards.

    Employers use disciplinary power to control and direct the behavior of their employees. Through employment contracts, employee appraisals, workplace monitoring and reward/punishment systems, employers can influence the productivity and compliance of their employees.

    In democratic societies, various social control mechanisms exercise disciplinary power. These include social norms, moral expectations, cultural values, and peer pressure, which influence and regulate people’s behavior. Peer pressure refers to the influence that peers can exert on a person’s behavior, attitudes or decisions. This influence arises from the desire to be accepted, liked or respected by the group.

    The media also play a crucial role in exercising disciplinary power. Through targeted reporting, advertising, and entertainment formats, they can propagate, promote, and support certain norms, values, and behaviors, thereby steering moral expectations or peer pressure on individuals in one direction or another.

    Finally, it is important to recognize that the system of punishment and reward affects psychological behavior. It transforms the rules of the system from something one must follow to something one wants to follow because it is in one’s own interest. This philosophy underpins „technologies of self-management”, which rely on motivational systems to encourage desired behavior. By skillfully combining positive and negative incentives, these technologies help individuals to self-regulate and achieve personal as well as societal goals.

    1.5. Technologies of the Self

    Technologies of self-management, or „Technologies of The Self”, refer to the methods and practices individuals use to regulate, shape, and control themselves. This can involve self-discipline, reflection, self-improvement, and other personal strategies aimed at meeting specific norms.

    The legal and normative frameworks established by ‚biopolitics‘ and ‚dispositives of power‘ for collective governance and regulation influence individual behavior and self-image. Through technologies of the self, people internalize these norms, voluntarily and consciously adapting their behavior because they perceive the rules as useful and beneficial for themselves.

    Fitness apps rely on positive reinforcement through rewards and challenges to motivate users to exercise regularly. Learning platforms offer rewards for completing modules or passing tests, increasing motivation to keep learning. Financial apps offer incentives for sticking to budgets and saving money, while highlighting negative consequences for overspending. Self-management methods such as the Eisenhower Principle or the Pomodoro Technique encourage people to use their time efficiently and focus on important tasks.

    In this way, external directives become internal motivations.

    1.6. Resistance and Counterpower

    Some of you may be irritated or disturbed by the theoretical classification of the most important aspects of governmentality. But according to Foucault, power and resistance are closely linked. Where there is power, there is also the possibility of resistance. Resistance does not arise from outside or independently of power, but is part of the relationship between the actors of power themselves.

    Where there is power, there is resistance, and yet, or rather consequently, this resistance is never in a position of exteriority in relation to power.
    In Defence of Foucault: The Incessancy of Resistance

    Power relations can only exist if there are points of resistance that oppose them. Resistance is always a part of the network of power, serving as an adversary, target, support, or entry point for power. There is not just one grand locus of resistance, but many individual resistances, which do not necessarily overcome power in its entirety. Thus, wherever there is power, the possibility of resistance exists. Resistance does not come before or after power; rather, both exist simultaneously and condition each other.

    These considerations reflect the dynamic between conformity and non-conformity in society. It illustrates that a small group of non-conforming individuals plays a significant role in promoting change and innovation, while the conforming majority contributes to stability and order.

    Conformity and non-conformity are not rigid categories, but rather dynamic concepts that depend heavily on the social context and individual circumstances. What is considered conforming or non-conforming in one situation may be different in another. These concepts exist on a continuum, and a person’s behavior can move between these two poles depending on the circumstances.

    Foucault viewed resistance as specific struggles against the everyday applications of power, rather than a struggle against the existence of power itself. Since power relations are deeply embedded in social structures and cannot be simply eradicated, they cannot be radically abolished. Resistance, therefore, manifests in various forms and practices that challenge and negotiate the ways power is exercised and experienced, rather than aiming to eliminate power entirely.

    The interaction between governance and resistance is a dynamic and complex process that takes place in various ways.

    When governments encounter resistance, they can compromise or make concessions to make their measures more acceptable and reduce resistance. By involving the leaders of the resistance or including certain demands in their programs, governments can not only mitigate the resistance but also integrate it into their own strategy.

    Governments can use certain discourses to present their measures as necessary or beneficial in order to increase acceptance among the population. At the same time, they can portray resistance movements as illegitimate, irrational or dangerous in order to reduce their influence.

    Modern technologies such as Big Data, Artificial Intelligence (AI) and Machine Learning (ML) offer governments new opportunities to monitor and analyze resistance. By analyzing data, they can identify potential resistance movements at an early stage and react accordingly. Using predictive models, governments can predict potential resistance patterns and take proactive measures.

    Resistance and counterpower function as feedback mechanisms within power structures. They indicate to governments and institutions where tensions and discontent exist and can lead to adjustments in governance strategies. Persistent and significant resistance can compel governments to implement political reforms or reconsider existing measures. Resistance movements can initiate important public debates, contributing to the formation of new norms and values, which then influence governance strategies.

    The constant interaction between power and resistance can lead to the emergence of new power relations and to the further development and change of government practices and technologies.

    1.7. Summary

    By taking a closer look at Foucault’s idea of governmentality, one can better understand how power functions in a society and how it influences governmental structures. This helps to recognize and examine the complicated and diverse mechanisms of governance.

    While governmentality analyzes the theoretical aspects of power in a society, governance concerns the concrete methods and processes that apply and manage this power in practice. Smart governance is a further development of governance that uses modern technologies and digital possibilities to meet current requirements.

    2. Corona Crisis: Governance and Biopolitics in a State of Emergency

    Global crises often present governments with enormous challenges that require a swift and well-coordinated response. In such situations, the importance of smart governance becomes particularly evident.

    An outstanding example of this is the coronavirus pandemic. The analysis of political measures related to COVID-19 provides a concrete example of how smart governance principles are applied. In this process, the theoretical aspects of governmentality are put into practice and validated.

    Biopolitics manages and regulates the life of the entire population in all its aspects. Disease is therefore no longer seen as an individual problem, but as a challenge for the community. Dealing with the coronavirus is less about treating individuals and more about regulating the entire population.
    [Foucault II: Der Virus und die Biopolitik/-macht]

    This involves collecting and centralizing information and statistics, defining relationships and risk assessments and deriving biopolitical regulations from these, such as hygiene measures, quarantine measures, preventive examinations, medication, etc. The regulations for the individual result from these more comprehensive measures, which are scientifically justified by experts, scientists and specialists. They represent the standards by which every individual must measure themselves in order to be accepted as an integral part of the population.
    [Über die (Un)Möglichkeiten einer demokratischen Biopolitik]

    Biopolitical care follows a doctrine of solidarity. The focus is on the narrative that care for others (whether hygienic or biopsychosocial) also enhances one’s own safety and improves the lives of both the individual and humanity as a whole. From the individual’s perspective, this governance technology appears „like a good shepherd”, whose task is „to do good for those under his watch”.
    [Die Covid-19-Pandemie aus biopolitischer Perspektive nach Foucault, p. 217]

    With this background knowledge, we now turn to the historic television address by former Chancellor Angela Merkel, which took place on March 18, 2020. In this speech, Merkel addressed the German population to discuss the serious situation of the COVID-19 pandemic and to introduce the government’s measures to contain the virus.

    Chancellor Angela Merkel’s speech can serve as a textbook example of how dispositives of power, the link between knowledge and power and biopolitics intertwine in practice:

    Millions of you cannot go to work, your children cannot go to school or daycare, theaters, cinemas, and stores are closed, and perhaps the hardest part: we all miss the interactions that are usually taken for granted. Naturally, each of us is filled with questions and concerns about what happens next in such a situation.

    I am addressing you today in this unusual manner because I want to tell you what guides me as Chancellor and all my colleagues in the federal government in this situation. This is part of an open democracy: that we make political decisions transparent and explain them. That we justify and communicate our actions as clearly as possible so that they are understandable.

    It is serious. Take it seriously too. Since German reunification, no, since World War II, there has been no challenge to our country that depends so much on our joint solidarity and action.

    I would like to explain to you where we currently stand in the epidemic, what the federal government and the state levels are doing to protect everyone in our community and to limit the economic, social and cultural damage. But I would also like to explain to you why you are needed and what each and every individual can do to help.

    With regard to the epidemic – and everything I am telling you about this comes from the ongoing consultations between the German government and the experts at the Robert Koch Institute and other scientists and virologists: research is being carried out at full speed worldwide, but there is still neither a treatment for the coronavirus nor a vaccine.

    But everything that could endanger people, everything that could harm the individual but also the community, we have to reduce that now.

    Now to what is most urgent for me today: all government measures would come to nothing if we did not use the most effective means to prevent the virus from spreading too quickly: And that is ourselves. Just as each and every one of us can be affected by the virus indiscriminately, each and every one of us must now help. First and foremost, by taking seriously what is at stake today. Not to panic, but also not to think for a moment that it doesn’t really depend on him or her. No one is expendable. Everyone counts, it takes an effort from all of us.

    The virologists‘ advice is clear: no more handshakes, wash your hands thoroughly and often, keep at least one and a half meters away from your neighbours and, ideally, hardly have any contact with the very elderly because they are particularly at risk.

    I know how difficult what is being asked of us is. We want to be close to each other, especially in times of need. We know affection as physical closeness or touch. But unfortunately, the opposite is true at the moment.  And everyone really needs to understand that: At the moment, only distance is an expression of care.

    Avoiding unnecessary encounters helps everyone who has to deal with more cases in hospitals every day. That’s how we save lives. This will be difficult for many, and it will also depend on leaving no one alone and looking after those who need encouragement and confidence. As families and as a society, we will find other ways to support each other.

    This is a dynamic situation and we will remain adaptable in it so that we can rethink and react with other instruments at any time. We will explain that too.

    That’s why I ask you not to believe any rumors, but only the official announcements, which we always have translated into many languages.

    We are a democracy. We do not live from coercion, but from shared knowledge and participation. This is a historic task and it can only be accomplished together.

    This means that it will depend not only, but also, on how disciplined everyone is in following and implementing the rules.

    The call to follow scientifically based official communications and not listen to rumors shows that resistance is also expected when implementing the solidarity doctrine. Merkel’s speech illustrates how the government is trying to combat potential resistance and the spread of disinformation by taking control of the flow of information and increasing trust in official channels.

    The last two paragraphs quoted activate the social control mechanisms for exercising disciplinary power in democratic societies. The social norm redefined in the speech, combined with moral expectations and peer pressure, is intended to influence and regulate people’s behavior.

    In the following months, the so-called AHA+A rules—Distance, Hygiene, Everyday Mask, and App—were seamlessly complemented by the 3G rules: Tested, Recovered, Vaccinated.

    AHA+A
    3-G-Rules

    As a result, a „hierarchy” of individuals with varying capabilities emerges. Some conform to a certain norm, while others deviate from it. Some can be improved with specific measures, others cannot. For some, certain interventions are effective, while others require different approaches. This categorization of individuals based on their degree of normalcy is one of the major tools of power in contemporary society.
    [Die Covid-19-Pandemie aus biopolitischer Perspektive nach Foucault, p. 218]

    This results in two complementary biopolitical measures:
    a) the promotion of those who are deemed worthy of support,
    b) the exclusion of those deemed unworthy of support.
    [Die Covid-19-Pandemie aus biopolitischer Perspektive nach Foucault, p. 223]

    During an extreme situation such as a pandemic, two key biopolitical governance techniques come to the forefront:

    a) „Biopolitical Care within a Solidarity Doctrine
    b) „State Racism

    „State racism” focuses on the elimination of biological threats in order to strengthen the population. The implicit logic is that the more individuals who do not conform to the established norm (in this case, being vaccinated) are eliminated, the fewer degenerates there will be in the population. This will make humanity as a whole better, stronger and more resilient.
    [Die Covid-19-Pandemie aus biopolitischer Perspektive nach Foucault, p. 224]

    Against this backdrop, the headlines below appear in a different light.

    Corona vaccination is a Christian duty
    Manfred Lütz, Physician and theologian

    The easiest way is to get vaccinated. It’s also the healthiest. I don’t want to have any vaccination certificate forgers as employees, if only because I don’t like employing weirdos. Who knows what other nonsense they believe in.
    Jürgen Kaube, Editor of the FAZ, journalist

    Vaccination opponents are enemies of the state
    Udo Knapp, Political scientist and editor of the taz

    Corona deniers should be consistently assigned to the right-wing extremist spectrum
    Georg Maier (SPD), Thuringia’s Minister of the Interior

    Health insurance doctors demand exclusion of unvaccinated individuals from medical care and psychotherapy
    Association of Statutory Health Insurance Physicians in Baden-Württemberg

    Access to the store [Food distribution for those in need] is only allowed for those who can provide proof of vaccination or recovery (2G)
    Tante Emma Rodgau e.V., Food distribution for those in need

    These are not random and independent events attributable to incompetent or corrupt individuals. Rather, this scenario follows a systematic plan that unfolds as if from a textbook.

    Under these conditions, morality is in a sense legally enshrined and thus adopted by the state. The law loses its rational foundation and is instead based on values. Judgments are made in the name of ’solidarity‘.

    In his work The Birth of Biopolitics, Foucault writes: „With one hand freedom must be established, but the same action implies that with the other hand one introduces restrictions, controls, constraints, obligations based on threats, and so on”.
    [Die Covid-19-Pandemie aus biopolitischer Perspektive nach Foucault, p. 231-232]

    Governance in the 20th and 21st centuries operates between two opposing poles: On the one side are the dominant power techniques of the precautionary state, on the other the passive power techniques of liberalism. „Market and plan, invisible or visible hand, central control or self-organization” – the attempts of governance to manage human life economically can be located between these poles.

    In the pre-Corona era, governance guided the liberal Western society largely discreetly and with an „invisible” hand. The regulatory mechanisms (norms) were primarily oriented towards self-organization. The majority of the population was considered „normal” and „worthy of support” according to governance standards. People felt comfortable in the „feel-good society” and enjoyed the liberal-democratic order.

    These are the same structures, processes and mechanisms that triggered the global pandemic and, in this context, brought dominant power techniques into play more or less overnight. The regulatory mechanisms (norms) were turned around 180 degrees and the precautionary state came to the fore. In this way, democracy became a „democratorship”. The majority of the population adapted to the new regulatory norms (The New Normal) and continued to be considered „normal” and „worthy of support”.

    However, a non-negligible minority increasingly had problems complying with the new norms for various reasons and were considered „not worthy of support” in terms of governance. This group of the population experienced social exclusion and slowly began to question the situation. Resistance started to form. 

    With this biopolitical way of thinking, it becomes understandable how politicians, who had been staunch defenders of democracy for decades, could suddenly become fervent supporters of freedom-restricting measures „without red lines”. This also explains the deep division in society, which even affects families, friends, and acquaintances.

    After the regulatory norms shifted during the course of 2023 in connection with the pandemic, those who had previously been excluded were once again classified as „normal”. From a biopolitical perspective, this group transitioned from the „exclusion mode” to the „inclusion mode”.

    It feels as though lost freedoms and rights are being restored. There is a sense that the resistance was worthwhile and that one can regain their place in society with dignity. To ensure that a similar situation never happens again, efforts are underway to review and address the handling of the COVID-19 pandemic, with the aim of holding those responsible accountable.

    The so-called „RKI Files” deserve special attention. The term „RKI Files” refers to a collection of approximately 2,000 pages of internal protocols from the Corona crisis staff of the Robert Koch Institute (RKI), which were released through a court order. These documents contain detailed records of the meetings and decisions made during the COVID-19 pandemic. They help to understand the measures and responses during the pandemic and provide a basis for reviewing and analyzing the decisions made and their impact on society.

    On the one hand, these files illustrate the link between knowledge and power as an essential aspect of governmentality and show how scientific findings and political decisions were intertwined. On the other hand, the publication of these protocols has caused a stir, as they clearly show that many of the corona measures were politically and not scientifically motivated.

    The measures that have been particularly criticized include lockdowns and mandatory masks. It was revealed that the Robert Koch Institute (RKI) already knew that lockdowns and compulsory masks do more harm than good and that there was insufficient scientific evidence for a general mask requirement. It was recognized that the effectiveness of these measures had been overestimated or misrepresented. The documents suggest that decisions were influenced by political agendas rather than purely scientific assessments.
    [What do the RKI-Files really show?]

    The documents show that as early as February 2021, health authorities knew that vaccinations did not prevent infections, contrary to public statements at the time. The prevailing narrative suggested that vaccination would protect against severe disease and transmission, which later proved to be a flawed assumption. Despite knowledge of these limitations, the political narrative continued to rely on a broad vaccination campaign with promises of comprehensive protection.

    There continued to be concerns about the side effects and long-term risks of the vaccines, which were not fully communicated to the public. The documents indicate that the potential risks were downplayed and the focus was on vaccination as the main tool to manage the pandemic, without sufficient transparency about potential negative effects.

    Learning from past experience and optimizing future measures is a central principle of governance. It shows a willingness to respond to criticism, to question and adapt processes. This not only strengthens legitimacy and trust in state institutions, but also increases society’s resilience to future crises. This is in line with Michel Foucault’s view that power and resistance are inextricably linked.

    The decision of the courts to allow the publication of the unredacted RKI files can be seen as a step towards more transparency, possibly influenced by public pressure and the need to counter skepticism and mistrust. However, if no political, personal and legal consequences follow, this could be seen as an attempt to stabilize the existing power structure. Transparency without real change channels resistance and legitimizes the existing order.

    At the same time, this could be seen as a strategy to neutralize resistance by seemingly taking it seriously but undermining its effectiveness. This can lead to resignation in certain population groups, as the impression is created that resistance is acknowledged but not really taken into account.

    Previous reactions from media such as ZDF, Tagesschau and Die WELT indicate that the primary aim is to channel and control criticism and resistance by signaling transparency without, however, allowing any substantial consequences to follow. This approach could be seen as a tactic to maintain trust in governance while leaving the actual power structures untouched.

    To what extent the handling of „resistance and counterpower” by governance structures will lead to a change in the status quo remains to be seen in the near future.

    Summary:

    The analysis of events during the corona pandemic represents a governance crash course that covers all facets of governmentality – from the connection between knowledge and power, through power dispositives and biopolitics, to disciplinary power and the management of resistance and counterpower.

    The pandemic has also highlighted how crucial and beneficial digital technologies are for effective governance in crisis situations. It acted as a catalyst by accelerating the adoption and implementation of smart governance practices. For this reason, the pandemic can be understood as a pivotal moment that advanced the development and implementation of smart governance worldwide.

    3. One Health Approach – Prevention Through Continuous Governance

    While the debates surrounding the RKI files are still ongoing, the next crisis event from the „Disease X” category is slowly approaching – bird flu, which has a zoonotic background and is classified by the WHO as a disease with „pandemic potential”.

    And this puts the WHO’s One Health approach on the agenda.

    The WHO One Health approach, which sees human, animal and environmental health as inextricably linked, has far-reaching implications for governance. This approach is changing the way governments, organizations and institutions approach and respond to health issues.

    One-Health

    Compared to the measures to combat the coronavirus pandemic, the One Health approach is much broader in scope. It requires intersectoral cooperation at both national and international level and requires coordinated governance structures from the healthcare, veterinary, agricultural, food production, environmental and other sectors that enable different authorities and organizations to work together effectively. Globalization of governance structures must ensure that international guidelines and standards are harmonized and effectively implemented.

    The knowledge base for defining political decisions and measures is becoming much more complex and involves the integration of knowledge and methods from various scientific disciplines (epidemiology, veterinary medicine, agricultural, food, nutritional and social sciences, etc.).

    The integration of environmental health into health strategies requires governance to make environmental sustainability a central component of health strategies.

    The focus is on prevention rather than reaction. This changes governance by focusing resources and strategies more on prevention and early warning systems. This includes the monitoring of animal and environmental health and the implementation of early warning systems in these sectors to identify potential health risks to humans at an early stage.

    The implementation of the One Health approach requires the adaptation and development of new regulatory frameworks that take into account the interfaces between human, animal and environmental health. Governments must enact new laws and regulations that support these integrative approaches to health and ensure that all relevant sectors work together effectively.

    The One Health approach will rely more heavily on smart governance than the coronavirus policy. This is because it requires a comprehensive, preventive and intersectoral approach. Key components are the continuous collection and analysis of data, the integration of different governance structures and the use of modern technologies for monitoring and prevention. These aspects are particularly important in the One Health approach as it moves from a reactive crisis response to a more integrated and preventative governance model.

    The One Health approach thus offers a broader perspective and comprehensive tools for policy makers to respond to health crises (human/animal/environment) and take emergency measures where necessary. By emphasizing preventive measures, coordinated responses and international cooperation, the approach helps to strengthen resilience to health risks and minimize the impact of crises on society.

    Summary:

    Dangerous epidemics or pandemics therefore have the potential” to intensify the biopolitical transformation of society and „the governmentalization of the modern state described by Foucault by taking measures that clearly go beyond epidemiologically indicated protective measures with the aim of containing the spread of epidemic diseases”.
    [Die Covid-19-Pandemie aus biopolitischer Perspektive nach Foucault, p. 233]

    In his work, Foucault emphasizes that „the transformations of power that develop and solidify in extreme situations” such as epidemics or pandemics „are not to be regarded as exceptional cases”, „but as the birth and enactment of new universally valid conditions that continue to apply even after the epidemic”. It is about the emergence and consolidation of the new power paradigm and its normalization.
    [Foucault: In der Seuche die Disziplinarmacht]

    The One Health approach can be seen as an evolution of crisis management, which, through its comprehensive, preventive, and technology-supported nature, forms the basis for the legitimization and lasting implementation of Smart Governance.

    4. The Technological Pillars of Smart Governance

    In the quest for a simple explanation of the fundamental tools of Smart Governance, one inevitably encounters a statement by Nandan Nilekani, CEO of Infosys Technologies:

    Source

    What are the tools of the new world? Everyone should have a digital ID; everyone should have a bank account; everyone should have a smartphone. Then you can do everything. Everything else builds on that.
    Nandan Nilekani

    It is worth taking a closer look at the individual elements of his statement.

    4.1. The European Digital ID

    In February 2024, the European Parliament adopted the eIDAS reform (electronic IDentification, Authentication, and trust Services) by a large majority. By fall 2026, all EU member states must offer their citizens a „European Digital Identity Wallet” (ID wallet). This wallet makes it possible to identify oneself both online and offline in almost all areas of life. The EU Commission is aiming for at least 80% of EU citizens to use a digital identity by 2030.

    A promotional video from the European Parliament explains that the EU ID Wallet securely stores important information such as official ID cards, documents and bank details in one place. The EU’s digital wallet is designed to make access to public and private services across Europe easier and more efficient. Use of the wallet is voluntary and free of charge. Citizens who decide not to use the digital wallet should not suffer any disadvantages. Wallet users can determine exactly which data is passed on to „trusted parties”. These parties, such as companies or public institutions, must register in the EU member states and specify which data they are requesting and for what purpose.

    According to the motto „Trust no politician”, it makes sense to find out about the specific technological implementation of digital identity. In doing so, you quickly come across the French high-tech company THALES, which plays a key role in many state digital projects at government level worldwide.

    THALES Group, based in Paris, is a listed company specializing in the following business areas: Defense Industry, Aerospace Technology and Digital Identity and Security. In the field of digital identity and security, THALES has core competencies in the technology segments of biometrics, data security and encryption.

    Several large-scale pilot projects will run until 2025 to test the EU digital identity wallet and ensure its secure and smooth roll-out. Around 360 entities are involved in these projects, including private companies and public authorities from 26 Member States as well as Norway, Iceland and Ukraine. Each pilot project is organized as a consortium and brings together expertise from the public and private sectors within the EU. The pilot projects test the EU wallet in various everyday scenarios that Europeans encounter on a daily basis. They also collect feedback on the wallet’s reference implementation. The knowledge gained will be used to improve the security, interoperability and overall design of the EU Digital Identity Wallet.

    Under the link eIDAS 2: the countdown to a single European Digital ID Wallet has begun we read:

    „Here at Thales, we are ideally positioned to support the key stakeholders responsible for making the EUDI Wallet a reality. As a global leader in trusted digital identity schemes, our teams have worked with governments, public services, and enterprises on eIDAS since its first iteration in 2014.
    As a result, we have a range of proven, eIDAS-certified solutions. Now, we partner with dozens of clients across Europe, helping them prepare for eIDAS 2.
    Our technology and expertise support the EU and its member states, accelerate the deployment and adoption of the wallet, and help to put greater convenience and security in the hands of millions of EU citizens.“

    This promotional video briefly and concisely explains how the eIDAS-certified „Digital ID Wallet” system solution from THALES works in practice.

    What is this advertisement subtly trying to convey to us?

    We meet the young, attractive woman called Lucy. The name Lucy is often associated with the 2014 action and science fiction film of the same name. In this fictionalized story, 25-year-old student Lucy drastically increases her brain power through a high dose of a drug and begins to use an ever-increasing portion of her „brain capacity”. When she finally reaches 100%, her body merges with all the equipment in a scientific laboratory to form an advanced supercomputer. Lucy travels back in time to the beginnings of the universe and meets her namesake Lucy, who lived around 3.2 million years ago and is often regarded as the link between apes and humans in human evolution.

    The choice of this name is intended to appeal to viewers by evoking the idea of enhanced capabilities as well as transformative and ground-breaking features. This emphasizes the uniqueness and innovative nature of the advertised product to attract their attention.

    Lucy is also a psychology student. Psychology, also known as the science of the soul, is an empirical science that focuses on describing and explaining human experience and behavior. Psychologists study the experiences, behaviors, and consciousness of people. By highlighting this, the advertisement aims to suggest to the viewer that this „evolutionary” technology is trustworthy.

    The Digital Wallet delivers a clear statement right from the start:

    In fact I am a handy way of proving and protecting her identity, both online and face to face. Let us have a closer look at what I can do. I can help governments to better communicate with citizens. Right now I am reminding Lucy of the appointment she needs to schedule for her mandatory vaccination.

    The individual is quickly and personally confronted with a classic biopolitical measure and discreetly reminded to adhere to the prescribed norms. The duty of a responsible citizen is to follow these norms as best as possible, correct abnormal behavior, and ideally avoid it altogether.

    In other words, the Digital ID Wallet demonstrates that it is an efficient and cost-effective tool for the government to inform us promptly about regulatory mechanisms (norms) and remind us to comply with them. An example of this is the mandatory vaccination. This, of course, assumes that the government is well-informed about our electronic health records. This will soon be ensured by the so-called Health Digital Agency Act (GDAG).

    The German Health Minister Karl Lauterbach summarizes the draft law in his X-post as follows:

    Back in 2020, the THALES promotional film illustrated the connection between the digital ID wallet and the electronic patient record when visiting the doctor. This seems to be pioneering for some government measures in 2024.

    The digital wallet also controls communication with all state authorities and enables access to financial and mobility services. The digital ID wallet is not only used for access to the state exam, but also for access to the pub.

    Yes, I am Lucy´s best companion. I protect her identity and official credentials wherever she goes. I provide secured access to public and private services and allow her to have full control over her data privacy. In other words, I give the right access to the right data to the right person. I am also trusted by governments to best support countries digital transformation.

    For the viewer, the Digital ID Wallet appears as the digital form of the „‘good shepherd’, whose task it is to ‘do good to those over whom one watches’”.

    In combination with the European Digital Identity, the smartphone is transformed into a specific, technical instrument for implementing government techniques to monitor and control both collectives and individuals. This implementation has two dimensions:

    a) political dimension

    Defined security and precautionary rules function as a control mechanism for the population, aiming to detect dangers and exert influence as broadly as possible on the behaviors of population and free (collective) subjects. For instance, in addition to pandemics, climate change is increasingly being defined as a risk situation.

    b) entrepreneurial-economic dimension

    The smartphone has become an everyday companion and generates countless amounts of data. Companies use this data to predict aspects such as purchasing behavior and lifestyle habits. They use comprehensive measures to influence the lives of both the population and individuals.

    The political dimension of surveillance and control is ‚visible‘. It is usually carried out in a „hard Go-NoGo” manner. In the event of non-compliance with the specified standards, consequences follow immediately (from exclusion to more far-reaching disciplinary measures). Roughly speaking, by using the Digital ID Wallet and its associated access to biometric data, one is fraud-proof transparent! And if one doesn’t meet the norms set by the ‚good shepherd‘, one could end up naked when the going gets tough. This brings back memories for some critics of the government’s coronavirus policy.

    The entrepreneurial-economic dimension operates in a more subtle, ‚invisible,‘ and discreet manner. It promotes ideals and norms, focusing on encouraging those who adhere to these norms.

    THALES has also created a suitable promotional video for this dimension entitled „Trusted digital lives”.

    The promotional story suggests limitless fun and convenience when digitizing one’s life. The key to this paradise is the digital capture of biometric data and its constant connection to one’s movement and behavior profile.

    According to the logic of Michel Foucault, the inventor of the terms ‚biopolitics‘ and ‚governmentality‘, the goal, in addition to maintaining/establishing a global state of equilibrium, is the security of the whole and its protection from internal dangers. As the population is diverse, it is a matter of recognizing the dangers on the one hand and finding a form of government that is so far-reaching that it is effective even in the most hidden corners of the population on the other. To govern the population is to govern its global findings; to govern the population is to govern it in depth, in subtlety and in detail.“
    [The (in)visible ‚friend‘, p. 31]

    The establishment of a culture where the smartphone is used as an extension of one’s own person opens up entirely new possibilities for the organization and management of societies. With the introduction of the European Digital Identity, each individual can be securely identified and addressed in digital systems. This reduces our behavior to logical-mathematical processes, which are continuously optimized based on the data collected.

    4.2. Technological Self-management as the Foundation of Smart Governance

    It is so easy to be immature. If I have a book to serve as my understanding, a pastor to serve as my conscience, a physician to determine my diet for me, and so on, I need not exert myself at all. I need not think, if only I can pay: others will readily undertake the irksome work for me.
    Immanuel Kant (1724 – 1804), German Philosopher

    It was predicted 10 years ago that the era of personal computing, represented by desktop computers and laptops, would give way to the era of intimate computing. It was predicted that even before 2020, „intimate devices”, environments and networks would know a great deal about us.

    A vivid example of this development is the Humane AI PIN from Humane, a start-up company founded by former Apple employees that now receives support from prominent investors such as Sam Altman, Microsoft, Qualcomm Ventures and other well-known investors.

    This innovative gadget caused a global stir just days after its announcement in the media and is already being hailed as the next „game changer” after the smartphone. 

    At first glance, the advertising for the Humane AI PIN seems very convincing.

    Source

    The era of intimate computing has now become a reality, as Imran Chaudhri, CEO of Humane, explained in his visionary speech „The Disappearing Computer” during the TED conference in April 2023. It is worth watching this speech in full.

    Let’s take a look at some of the statements made by the Californian visionary:

    In the future, technology will be both ambient (i.e. adapted to the environment) and contextual (i.e. adapted to the situation).  And that means you need to use AI to really understand yourself and your environment to get the best results.

    And we gain this context through machine learning. The more you use our AI-powered device, the better WE can help you in any emergency situation. Your AI effectively becomes a constantly evolving, personalized form of memory. And WE think that’s great.

    Your AI finds out what you need at the speed of thought. A feeling that will continue to evolve as technology advances. … As AI advances, WE will see it change almost every aspect of our lives. In ways that seem unimaginable right now. In fact, Sam Altman of OpenAI feels the same way we do – AI is vastly underestimated. And I’ll add, as long as WE get it right. WE truly believe that WE are just beginning to scratch the surface of what is possible.

    More human, more intuitive interactions that are screenless, seamless and tangible – that is the possibility of rethinking the human-technology relationship as WE know it. And that’s the exciting thing. It is undoubtedly a great challenge. But it is the world WE want to live in. A world where technology not only helps us get back into the world, but also enhances our ability to do so. It is within reach.

    In the future, the technology could be almost invisible.

    These statements reflect the principles of neoliberal governmentality by emphasizing the individual’s responsibility to use and adapt to new technologies, promoting a culture of constant self-improvement and presenting technological control as a means of regulating and optimizing life. New norms and values are created through technological innovation. In this world, technology is not only useful but also enhances human capabilities, setting new standards for performance and efficiency.

    Neoliberal governmentality relies on digital surveillance. Without the data generated by digital surveillance, the system would collapse; they are its raw material and currency. Innovative gadgets, such as the Humane AI PIN, present themselves as efficient tools in efforts to discipline, control, and optimize the postmodern individual. They focus their attention on the individual with all its desires, ambitions, potentials, and weaknesses. It appears as though they are available to the individual to assist in becoming an improved and more successful self.

    In this process, the subtly deployed „Technologies of the Self”, as defined by Foucault, come into play. These are processes and practices that enable individuals, either independently or with the support of others, to carry out a variety of operations on their body, soul, thinking, behavior, and way of life.

    According to Foucault, the „Technologies of the Self” always require a relationship to the other: „One cannot deal with oneself without having a relationship to the other.” [Foucault, Michel: Die Regierung des Selbst und der anderen. Vorlesung am Collège de France 1982/83. Frankfurt/Main: Suhrkamp, 2009]

    The function of the Other is to speak the truth, especially unpleasant truths, which should encourage the subject to reflect on their actions and modify them if necessary.

    The following dialog sequence between the CEO of Humane and the artificial intelligence illustrates the practical application of these power techniques.

    Imran Chaudhri Dialogue with Humane AI Pin

    Above all, the technologies of the self are based on the subject’s free decision to work on himself and, by confessing his „sins” or „mistakes”, to open himself up to spiritual guidance and then to receive instructions or teachings.

    In Foucault’s philosophy of power, the subjugated subject and the autonomous self are two sides of the same phenomenon. When dealing with wearables in the context of the omnipresent data economy, the modern indifferent subject comes to the fore. On the one hand, it acts autonomously, actively and creatively and is aware of the risks and dangers of data mining. On the other hand, it bows to the principles of data production and takes no care to protect its own privacy. In this way, postmodern (supposed) concern for oneself results in self-neglect.

    The subject-object of self-measurement through wearables does not surrender out of cowardice (without fear of action or decisions) but due to convenience, disinterest, and a misguided assessment (‚I have nothing to hide‘) of its immaturity. Submission to the regime of self-optimization relieves the subject from independent thinking and self-care. It continuously receives user-friendly feedback and a preconceived interpretation of itself, freeing it from the obligation to reflect and contemplate. Self-awareness through data shapes a data-dependent subject – one that admits to being unable or unwilling to independently think about itself without wearables, delegating this form of self-work to a medium. In doing so, the subject becomes alienated from itself, especially from its own body, which becomes a foreign object translated into data streams. Despite the claim to enlightenment and supposed emancipation, this results in a flexibilized, self-marketing, fundamentally indifferent subject trapped in the subtle entanglements of digital pastoral power.

    Smartphones and wearables are becoming personal laboratories and promise to empower us all. These devices are evolving into advisors: they not only monitor our activities, but also give specific instructions and recommendations. The design of wearables influences our decisions, often unconsciously, by presenting different options. Users are guided towards certain behaviors through targeted nudging. In this way, wearables contribute to social control and convey general norms.

    Seen in this light, the visionary speech by Imran Chaudhri, the CEO of Humane, takes on a different perspective.

    The Israeli historian, Yuval Harari, gets more specific in this regard. During his ‚pathetic‘ appearance at the Frontiers Forum in May 2023 on the topic „AI and the future of humanity“, he outlines the following vision of the future:

    But the longer we talk to the bot, the better it gets to know us and understands how to refine its messages to manipulate our political views or our economic views or anything else. As I said, by mastering language, AI can build intimate relationships with humans and use the power of intimacy to influence our opinions.

    New AI tools would have an immense impact on human opinions and our view of the world. For example, people could come to use a single AI advisor as the one-stop oracle and source of all the information they need.

    People and companies that control the new AI oracles will be extremely powerful.

    Technological self-management and smart governance reinforce each other by using common principles and technologies to optimize both individual behavior and the management and governance of societies. Both concepts promote efficiency, transparency and personalized interactions through data-based decision making and behavior-guiding techniques. This symbiosis enables targeted changes on an individual and societal level.

    Smart governance promotes the decentralization and privatization of public services. Technological solutions that enable more efficient management of public services are often provided by private actors. This takes place within the framework of public-private partnerships or through the direct outsourcing of services to private companies.

    4.3. Digital Twins as the Basis for Smart Governance Strategies

    What would you do if you had a digital copy of yourself? A digital twin that is just like you and lives in an exact digital representation of your home, workplace or city? Even better, what if this digital twin couldn’t feel pain or injury? The possibilities would be incredible. You could make decisions without fear of the consequences and with much more certainty about the outcome.

    The management consultancy McKinsey describes the term „digital twin” as follows:

    A digital twin is a digital representation of a physical object, person, or process, contextualized in a digital version of its environment. Digital twins can help an organization simulate real situations and their outcomes, ultimately allowing it to make better decisions.

    Is it already possible to create a virtual copy of an entire city? Yes, this is already feasible. The Siemensstadt Square project is just one example of this.

    Digital twins act as a central platform for integrating and coordinating various smart technologies. They bundle data from IoT devices, sensors and other digital systems to create a comprehensive picture of the urban environment. This allows planners to test different scenarios and measure their results without affecting the city and its residents. Working solutions can then be implemented in the physical space.

    Digital twins are an indispensable tool for smart governance, as they offer numerous advantages and can significantly improve the efficiency and effectiveness of administration. This technology enables precise real-time data analysis and the simulation of various scenarios. As a result, potential problems can be identified at an early stage and suitable measures planned before they manifest themselves in the real world. The possible applications are diverse: from monitoring and maintaining infrastructure to analyzing environmental data and social dynamics to crisis management in the event of natural disasters or pandemics.

    Digital twins are detailed replicas of systems that are designed for a two-way flow of information with the real object. They enable a bidirectional exchange of real-time data and contribute to a better understanding of what is currently happening. This allows problems to be resolved in real time and the performance of the real object to be optimized.

    If a digital twin can successfully emulate an entire district, could it then be extended to the individual level to function as a personal digital twin?

    Many experts are convinced that this vision is achievable, and indeed, some of them are already working on highly ambitious applications. The assessment suggests that personal digital twins could become an everyday reality by the end of the decade – with significant impetus coming from the healthcare sector.

    Former CEO of General Electric, Bill Ruh, for instance, predicts that every person will be equipped with a digital twin from birth. This digital twin will leverage the individual’s genome to provide personalized treatment recommendations as soon as diseases occur.

    The fact that the Personal Digital Twin is more than just a vision is demonstrated by the circumstance that in 2020, the European Commission’s Joint Research Center (JRC) launched the project „MyDigitalTwin: Trusted Personal Digital Twins in a Transformed Society”. The information available on the Internet about this project is sparse. This link provides the following general information:

    MyDigitalTwin (MyDT) project aims to study how to utilize, supervise, and control the rapidly growing generation of personal data via PDTs, and PDT role in understanding complex/fast societal dynamics. The study wants to explore the challenges related to ethics and privacy, and the opportunities to move the existing PDT frameworks from a Business–to–Customer (B2C) to a Government–to–Citizen (G2C) context. Finally, MyDT will consider the PDT role for a European e–Identity.

    Further information on the EU Commission’s MyDigitalTwin (MyDT) project can be found in the eBook by Prof. Roberto Saracco entitled „Personal Digital Twins – A third evolution step of humankind?”. Prof. Saracco is not only one of the chairs of the IEEE Digital Reality Initiative, but also an active participant in the expert working group of the MyDT project.

    To what extent should the PDT reflect the physical person?

    This essentially depends on what is expected from the PDT. Currently, the use of PDTs is advocated in healthcare. A PDT designed for such a purpose would reflect physiological aspects of the person with a multitude of details (weight, height, gender, heartbeats, respiratory rate, metabolism, etc.) and may encompass various other health-related data (genome sequence, allergies, living environment, parental pathologies, occupational risks, etc.).

    This promotional video „Forward CarePod™, the World’s First AI Doctor’s Office” by the US company GoForward demonstrates how quickly this can now be implemented in practice.

    Google recently unveiled MedLM, a series of specialized generative AI models for the healthcare sector. According to Google, the performance of these AI models is equivalent to that of a medical specialist.

    With the promise of personal 360-degree comprehensive health protection around the clock, 365 days a year, the majority of the population will voluntarily take the first step towards a Personal Digital Twin (PDT).

    A large amount of personal data sets are obviously crucial for the operation of the PDT; a PDT without data does not exist. The article „The last bastion – The human body as a technology platform” provides an up-to-date overview of how this data is collected and processed technologically.

    In this constellation, the basis of trust between the natural person and the institution that collects and manages the personal data records is essential.

    For this reason, the European Union (EU) has introduced regulations such as the General Data Protection Regulation (GDPR) and the ‚EU Data Act.‘ While the ‚EU Data Act‘ aims to make more data available for societal and economic purposes, the GDPR focuses on the protection of personal data and the rights of individuals. These regulations address different needs: data protection and confidentiality on one hand, and data use and sharing on the other.

    This creates potential conflict. A harmonious alignment of the requirements of both regulations requires careful consideration to ensure that the objectives of the free flow of data and data protection are reconciled. And that is a real challenge for smart governance.

    Let us remember that biopolitics, as a central aspect of governmentality, manages the lives of the entire population through state and other institutions in all its facets. During a pandemic, the disease is no longer seen as an individual problem, but as a challenge that affects the entire community.

    How Personal Digital Twins can be used in combating a pandemic and how personal data is handled is simply explained by Prof. Saracco in this video excerpt.

    [Excerpt from the Webinar „Digital Twins and Personal Digital Twins in Pandemic Monitoring and Control”]

    In this scenario, the PDT exchanges health-related data with the physical person and with the health authorities, aka the state authority. The state authority determines how the respective data should be handled in the context of the current pandemic and what consequences this has for the physical person. Typically, certain behavioral rules are mandated by the state. As long as the physical person adheres to these rules, they remain „anonymous”, i.e. their privacy is respected. „Anonymity” disappears when the person does not adhere to the state-defined rules (there is an intrusion into privacy). In this constellation, the physical person is monitored 24/7 with the help of the PDT and conditioned if necessary.

    The ambitions to reflect a physical person through PDTs extend far beyond the healthcare sector. How far can and should one go?

    The discussions within the framework of the EU Commission’s MyDT project are primarily guided by the already available and growing „data landscape” of the physical person.

    The data landscape that can potentially be part of the personal digital twin.
    [Forum Virium Helsinki]

    Note that only a small portion of the data is generated and captured by the person themselves (self-measurement). Most data is generated through the person’s interaction with their environment and is collected by various institutions. The functioning of this process has already been illustrated in chapters 4.1 and 4.2.

    The extent to which the resulting digital footprint is used for creating a personal digital twin depends on the complexity of the analysis methods applied to existing datasets. With the help of AI models, today we have reached the point where a comprehensive profile of our person is silently created in the background across almost all domains. This profile can be used to predict future needs and/or to stimulate or control these needs. This growing sophistication in analyzing and managing personal data sets brings us ever closer to the concept of a digital twin. It is a „personal” digital twin in the sense that it reflects who we are (habits, history, future behavior), but it is not „personal” in the sense that it belongs to me – I basically have no control over this pseudo digital twin.

    An analysis of the EU AI-ACT (EU regulation establishing harmonized rules for artificial intelligence) shows that the EU Commission is planning the use of so-called high-risk AI systems in almost all areas of life. These systems are intended to closely monitor, review and evaluate the actions of each individual using AI. Ultimately, an individual’s ‚fate‘, including education, career development, access to services and financial resources, freedom of movement, legal protection and criminal prosecution, could be more or less influenced by these systems.

    Application Areas of High-Risk AI Systems

    This should answer the question, „How far can and should one go?”.

    According to Prof. Roberto Saracco, the expert group of the MyDT project has a broad range of applications in mind. There is consensus that a European initiative can promote the acceptance and dissemination of PDTs, supporting their use as part of the Internet of People (IoP) in healthcare, including the monitoring and control of epidemics. This sector is intended to pave the way for applications in smart cities, e-government, and so on.

    Through public-private partnerships, smart governance promotes the development of an ecosystem in which private companies establish a culture that requires the use of smartphones and wearables as a fundamental tool. These companies offer services via personal digital twins and encourage other companies to offer similar services via a personal digital twin.

    On the one hand, this development means that there may be many different Personal Digital Twins (PDTs), which can potentially cause confusion. On the other hand, this could motivate companies to offer an integrated PDT that combines existing, sector-specific PDTs for individuals.

    Professor Saracco expresses his views on the matter as follows:

    I do not have a crystal ball, but if I had to make a prediction, I think that the evolution will be bottom up rather than top down. It is unlikely that an institution (like the EU) will dictate and steer the evolution of PDTs. It is much more likely that several companies will offer services that result in the creation/adoption of PDTs of people. Other companies will provide tools to integrate fragmented PDTs into a single entity that can be compliant with a general framework (this one could well be the result of work at an international standardization level) that can have some characteristics regulated by a body such as the EU.“ [Personal Digital Twins]

    It is anticipated that over time, the numerous Personal Digital Twins (PDTs) created to represent specific aspects of an individual will eventually merge into a single aggregated PDT. Professor Saracco predicts that within the next ten years and beyond, every person will have a personal digital twin. This Personal Digital Twin will be ‚born‘ during pregnancy through data collected from the mother’s medical examinations and will evolve throughout the person’s life. The PDT will represent the entire digital personality and can be used to share data at specific times, but only with pre-authorized institutions that have permission and a legitimate need for access, always under the control of the physical person.

    Let’s recall that the digital twin is designed for a reciprocal flow of information with the object being emulated. It involves a bidirectional exchange of data. The digital twin can be seen as an interface between the physical person and various AI systems, which are operated or controlled by private or public institutions. On one hand, the data collected to generate PDTs are also used for training and further development of AI systems. On the other hand, AI systems can provide personalized recommendations, assistance, or even predictions based on the digital representation of an individual, analyzing and processing his unique characteristics and behaviors.

    In crisis situations, PDTs can contribute to both „passive monitoring” and „active conditioning” of the physical person. An example of this was clearly illustrated in the video by Prof. Saracco. Once the infrastructure is established, it can be promptly adapted to the specific crisis situation, including all resulting restrictions and consequences for the individual. Let’s not forget that the next decade is full of global risks.

    4.4. Intelligent Money – Smart Money and Smart Governance

    Advancing global networking through technologies such as 5G and the Internet of Things (IoT), supported by powerful AI algorithms, is driving the development of the so-called ’smart economy‘. This refers to an economy that is becoming more efficient, sustainable and innovative thanks to digital technologies and data-driven processes. Key technologies such as the Internet of Things, artificial intelligence, big data and blockchain play a central role in this by helping companies to optimize processes, make their production more efficient, reduce energy consumption, make better use of their resources, develop new business models and respond better to customer needs.

    In a smart economy, data is continuously collected and analyzed in order to make informed decisions. Networking with the financial sector plays a crucial role in this. This connection makes it possible to make financial transactions more efficient, secure and transparent. The seamless integration of financial services into the digital economy places new demands on the digital form of money and inevitably leads to its further development.

    In the context of this evolutionary development, digital currencies will offer expanded functions that go beyond the simple roles of payment and value storage associated with traditional currencies. This is referred to as the ‚tokenized‘ form of money. Detailed and comprehensive information on this topic can be found in the article CBDC – A Love Story with Reservations.

    At this point, it is sufficient to say that „tokenization” refers to the process of transferring assets from the real world into the digital world by converting them into digital tokens. These tokens act as digital representations of real assets and are stored in a database.

    An asset is an economic value or resource that provides a company, person or organization with a benefit or entitlement to future benefits. These can include tangible assets (land, buildings, machinery, vehicles, equipment, inventory), intangible assets (patents, licenses, copyrights, software), natural assets (land, water, natural resources) and financial assets (cash, bank balances, shares and other financial instruments).

    The database, also known as a ledger, is used to record the current status of assets, liabilities and capital of a company or organization. Traditionally, a central authority has control over the data and controls access centrally. In a smart economy, a decentralized database, also known as a distributed ledger, is increasingly being used. In contrast to centralized ledgers, which are managed by a single central authority, the data in a distributed ledger is located on many distributed nodes or computers that are connected to each other via a network. This decentralized nature ensures greater security as the data is stored on multiple nodes and changes are cryptographically secured. Blockchain is a specific technological implementation of a distributed ledger.

    A token, in addition to containing information about the asset (e.g., unique identification, owner, custodian, origin, value, etc.), also includes rules that define what the asset can and cannot do.

    The token definition according to BIS [BIS]

    This makes it easier to integrate the tokens into so-called intelligent contracts, also known as smart contracts. A smart contract is a software program that represents a self-executing contract whose conditions are contained directly in the code. These codes run on a blockchain and automatically execute actions when predefined conditions are met, without the need for an intermediate instance.

    A smart contract covers all key aspects of a contract: from identifying the parties involved and the subject matter to the services, obligations, conditions, and duration, as well as management and enforcement. A smart contract is absolutely precise. It follows the pre-programmed logic down to the finest detail and is executed deterministically. This logic defines how the tokens operate and what rules they must adhere to.

    In the new monetary system, all currently available forms of money will have a digital twin.

    New and Existing Types of Money for a Future Fiat Currency System [Position Paper]

    In this technological construct, all money transactions can not only be clearly identified and tracked, but also integrated into complex, automated processes. In addition to payment transactions, even money functions can be programmed, which is known as „Smart Money”. The traditional wallet in which cash and cards are stored is transformed into a Digital Wallet – an app on a smartphone or computer that enables users to store their digital tokens, send and receive money, make purchases and manage their transactions.

    The advantages of the new forms of money cannot be denied. By integrating them into smart contracts, transactions can be processed faster and more cost-effectively than conventional bank transfers, which often take several days. In a smart economy, the flows of goods, money and information can be automated and synchronized, which leads to a further increase in efficiency.

    The transparency and traceability of transactions carried out on a blockchain reduces the risk of fraud and facilitates regulatory compliance. Another advantage of smart money is financial inclusion, as it can improve access to financial services for people who were previously excluded from the traditional banking system, which is particularly beneficial in developing countries.

    Interoperability is another important factor. Tokenized money can be used in different digital ecosystems and enables seamless integration with other digital services and platforms. Finally, these digital currencies offer a high level of security against cyberattacks and manipulation through the use of advanced encryption techniques and decentralized networks.

    The resulting intelligent and flexible financial instruments can not only significantly enhance the impact of Smart Governance on citizens‘ lives but also deepen it.

    Transactions between the government and citizens, both Government-to-Citizen and Citizen-to-Government, open up entirely new perspectives. Governments can ensure that public funds reach their intended destinations directly and without delay. Citizens can gain faster and more secure access to social benefits, pensions, or subsidies. In the tax system, Smart Money demonstrates its advantages by enabling automatic and real-time tax payments. This reduces administrative burdens, minimizes errors, and enhances the efficiency of the tax system. Automated tax payments simplify and make the process more transparent, which can promote tax compliance.

    The combination of Digital ID, smartphone, and Digital Wallet facilitates access to financial services for individuals without bank accounts or with limited access to traditional financial institutions. This financial inclusion not only promotes economic participation and helps reduce social inequalities but also maximizes the reach of Smart Governance, ensuring its effectiveness extends to even the most hidden corners of the population.

    Smart money facilitates the more effective implementation of specific political agendas, such as promoting sustainable development. Governments can encourage environmentally friendly behavior and sustainable investments by utilizing digital currencies and smart contracts to efficiently manage environmental subsidies and tax incentives.

    As described in the article CBDC – A Love Story with Reservations, the tokenized form of money forms the technological foundation for numerous new and innovative financial services in the private industry and financial sector. With increasingly advanced technologies based on AI algorithms, cities are transforming into ‚Smart Cities,‘ buildings into ‚Smart Buildings‘ or ‚Smart Homes,‘ and cars into ‚Smart Cars.‘ This extensive networking allows for the extraction and processing of more and more information from our daily lives into digital platforms. The motto ‚faster, further, higher‘ drives the integration of personal financial data, mobility profiles, details of living and working environments, and physical well-being into algorithmically controlled rules, which can be codified in smart contracts.

    In this context, „Smart Governance” establishes the rules, transparency requirements, efficiency goals, security standards, participation mechanisms, and data protection policies that ensure smart contracts operate within a legal and regulatory framework. As a result, significant aspects of a person’s life can be indirectly influenced by „Smart Governance”.

    The integration of Smart Money into Smart Governance brings numerous benefits but also significant challenges regarding control and surveillance. These aspects must be critically examined to maintain the balance between efficiency and personal freedom. Through the use of Smart Money, governments and financial institutions can track detailed transaction data in real-time. This allows for more precise monitoring of citizens‘ financial behavior, as every transaction can be traced and analyzed. A rather striking comment on this matter comes from Augustin Carstens, the General Manager of the Bank for International Settlements (BIS):

    Smart money gives governments the ability to control financial activities. Payments for certain goods and services could be restricted or blocked in order to combat illegal activities or regulate politically undesirable behavior.

    The storage and processing of large amounts of personal financial data entails considerable data protection risks. In authoritarian regimes, there is a risk that smart money could be misused as a tool for political repression. Governments could impose financial sanctions on political opponents or restrict access to financial resources for certain population groups.

    To alleviate concerns about government surveillance, it is the task of the authorities to reassure the public that appropriate regulations and controls are in place. In this context, international organizations such as the OECD play an important role. The OECD document entitled „Central Bank Digital Currencies (CBDCs) and democratic values” contains some relevant statements on this topic.

    One of the risks posed by CBDCs for society is their potential use as surveillance tools, given potential access to heightened levels of information about users, including transaction and account level information. At the extreme, CBDCs could give governments the ability to monitor and track all transaction and other financial activity details of users, and also the possibility to exert greater control over private transactions. Authorities could unjustly censor users and transactions without due process or recourse.

    Moreover, in a scenario in which CBDCs are used for largescale control of monetary transactions, CBDCs could become an instrument of control and social profiling, biased and discriminatory treatment of users and possible human rights abuse.

    The OECD is an international organization with 38 member states that are committed to democracy and a market economy. Its members include many EU countries, the USA, Canada, the UK, Japan and Australia. The document emphasizes not only understanding the risks of introducing CBDCs, but also setting clear guidelines to ensure that democratic values are taken into account in the design and implementation of CBDCs. There are four main areas to which particular attention is paid: (i) Civil liberties and human rights; (ii) Equity: availability, accessibility and affordability; (iii) Privacy and integrity; (iv) Trust: Security, transparency, operational resilience and protection of the aforementioned values.

    Democratic values for the design and implementation of CBDCs, as defined in the OECD report [OECD iLibrary]

    The OECD considers data protection as follows:

    In terms of privacy options, the lowest degree of privacy would involve a design wherein all onboarding/KYC and transaction data are visible to the central bank. The second lowest degree of privacy would involve transparency and visibility of the above data to the intermediary only. On the other end of the spectrum, no data is visible to any third party or the central bank itself, i.e., full anonymity, which is not a desirable feature, as this would make it impossible to control circulation and to prevent money laundering. It would also impede regulation and enforcement activities. Instead, a model of ‘selective privacy’ involves a higher degree of privacy for low-value / low-risk payments, involving simplified checks (e.g., specific wallet with lower requirements during onboarding). Under this model, higher-value transactions would remain subject to standard controls.

    Regardless of whether terms like „selective privacy” or „pseudonymity” are used, the complete anonymity of physical cash cannot be achieved. 

    A permissioned CBDC system, where participation is managed by a trusted entity or set of trusted entities, could yield better results in terms of privacy protection of sensitive financial data: transaction history is generally only viewable by a small number of trusted entities and kept private with respect to others.“ [OECD]

    In essence, a type of asymmetric privacy protection is applied. While the majority do not know the true identity of a person behind a pseudonym (e.g., public address/key), thereby maintaining privacy (e.g., private address/key), there is the possibility for a select group of individuals or institutions to uncover the true identity through specialized knowledge and access to appropriate technologies. Therefore, pseudonymity does not provide complete anonymity but grants a degree of privacy from the general public, while still allowing traceability for certain authorized parties.

    This is an important point. The ability to determine the identity of a person behind a pseudonym contributes in some ways to the further concentration of knowledge and power. Individuals or organizations with the resources and technical ability to decode identity can thereby exercise increased control over the information and actions of those using pseudonyms. This can be particularly problematic if this power is in the hands of a few powerful institutions or governments, which can lead to an imbalance in terms of data protection and individual freedom.

    In this sense, it is important that the use of pseudonymity in society and in technological systems is accompanied by appropriate protection mechanisms and data protection regulations in order to prevent the misuse of knowledge and power and to protect individual privacy. In most cases, governmental or regulatory institutions are responsible for establishing and enforcing data protection regulations and safeguards against data misuse. These institutions are often set up by the respective governments.

    And this setup contains an implicit contradiction. The contradiction arises from the fact that the institutions responsible for protecting privacy are created by governments that simultaneously have an interest in collecting and utilizing more data. In a way, Smart Governance is the entity that has to regulate itself.

    In addition to the protection of citizens‘ privacy, the programmability of tokenized forms of money is another aspect that requires special confidence-building measures. In the document „Central Bank Digital Currencies (CBDCs) and democratic values”, the OECD comments on this topic as follows:

    Although programmability could enable government or central bank-initiated programmable money that works only in certain ways, this would work against policy objectives of providing uniform CBDCs to citizens and promoting user trust. Payments programmability on the other hand, controlled by the users, could provide enhanced functionality for users to set rules on their payments. In some cases, it is envisaged that Payment Interface Providers and External Service Interface Providers could implement such programmable functionalities themselves, but they would require user consent and not be at the issuer’s direction.

    The European Central Bank (ECB) has explicitly ruled out programmable money, but is in favor of programmable payments. While programmable money represents a direct intervention in the financial freedom of citizens, as it can restrict the use of money through set rules and conditions, the impact of programmable payments is not immediately apparent. In the context of smart contracts, programmable payments can influence citizens‘ behavior in a variety of ways by enabling automated incentives, conditional payments, regulation-compliant transactions, contract management and dynamic price adjustments. These mechanisms are designed to increase efficiency and trust while subtly and indirectly controlling the behavior of participants.

    Smart Money will definitely be a powerful instrument of Smart Governance in modern societies, as it improves the coordination of all market participants in line with economic and political goals.

    To achieve this goal, citizens must have a high level of trust in the government and financial institutions. If they feel that their financial privacy and freedom are threatened, this could lead to resistance and rejection of the new technologies. Therefore, smart governance will take care of making citizens feel safe. It is less important whether privacy and financial freedom are actually at risk; what matters is that citizens believe their data is secure and their freedom untouched. This feeling of security and trust is therefore a key factor in the success of Smart Governance and Smart Money.

    5. A Glimpse into the Future – Smart Governance at Its Best

    If you are still unsure about the possible development of society under the aegis of smart governance, it is worth taking a closer look at the future vision of the „Tokenize Europe 2025” initiative. This initiative was launched by the European Commission and the Association of German Banks and is supported by the consulting firm Roland Berger as well as more than 20 member organizations from various countries and industries to advance the tokenization of Europe.

    The future of Europe is described as follows:

    In 2030, we no longer go online”, because being online is an integral part of life. Technology and digital services are embedded in our daily routines, our work, our lifestyle, 24 hours a day.

    A DAY IN THE LIFE OF A TOKENISED EUROPE IN 2030

    07:00

    It’s getting warm outside. Simon is a European citizen and has a biunique digital identity token stored in his smart watch. Simon’s digital personal trainer receives fitness data from his smart watch while he is asleep. Simon’s tokenbased digital twin always calculates the best action for him to engage in next. The trainer creates a daily plan in line with Simon’s preferences and fitness condition. Today’s plan has already been sent to all his electronic devices before the alarm rings. A micro-payment to his digital personal trainer was made automatically even before Simon woke up. Since weather data has also been sent to his smart home and has been adjusted by his local sensor, the air-conditioning is activated. Simon gets some coins for data collected from his local sensor.

    07:30

    Time for breakfast! The refrigerator, aware of the weather and Simon’s fitness condition, will recommend that he eats light meals today. The refrigerator knows what is stored inside it and also knows Simon’s preferences (e.g. for organic food that is digitally certified by the producer via a digital token containing all information about production, transport and delivery). By combining this information with Simon’s digital ID and payment data, the refrigerator can reorder missing foods. Simon’s grocery supplier delivers the food to his door within 20 minutes.

    08:00

    Simon receives a suggestion from his electric transport provider: Simon, you shouldn’t be walking the long way to the office in hot weather conditions. We recommend using an eco-friendly carpool. Please confirm the pre-booking we have made.” In 2030, all digital identities – those of people and machines alike – are stored in digital wallets. These wallets also include digital money, driving licences, insurance policies and details of the registered address etc. – in Simon’s case all in accordance with his personal preferences and the rules he himself has pre-defined as owner of the data. The electric car, which has recharged itself at the parking space overnight, is ready and waiting for him.

    08:15

    To ensure an optimal distribution of cars within the city, dynamic pricing modules calculate usage fees based on location and/or nearby events. After the car key has been sent to Simon’s smartphone as a digital twin, the usage fee is calculated in addition to the dynamic price-per-kilowatt-hour based on consumption. The insurance fee is payable via a separate insurance token and depending on his driving style. Today, he received a discount, because he is also the owner of a security token from the car sharing company, and today they paid a dividend.

    08:30

    Simon works in the logistics department of a textile company that manufactures its products outside Europe and has a global supply chain. In the days before tokenisation, global supply chains were challenging to manage because of the many suppliers, intermediaries and public authorities involved across many different countries – complexities that came on top of non-digital/paper processes, language barriers, legal differences and time-zone differences. In combination with digital contracts and transactions, tokenisation has vastly improved the transparency, safety and efficiency of such transactions.

    09:00-17:00

    From his office in Berlin, Simon can track every link in the production chain. Ms. Jin picks the cotton from a field in the Huang-Huai-Hai region and the cotton is delivered to the factory by Mr. Xiao. An embedded token contains information about which workers have worked on the product and been involved in transporting it by truck to the harbour and the ship etc. This is especially useful to ensure that sustainable and ethical production and transport standards have been fulfilled every step of the way. Since the contracts with the suppliers are defined as smart contracts in a distributed ledger technology network, all payments are automated. If the contractual requirements are met, the payment will automatically be booked from the company’s wallet while Simon is enjoying a coffee at the office. After making sure everything is fine with the transaction, Simon joins his business meeting, which takes place in a metaverse application.

    17:00

    At the end of his working day, Simon’s digital personal trainer reminds him to attend his sports class, which is also in the metaverse. His trainer, who lives in the USA, will be waiting for him, so both can have a digitally enabled training session as if they were in the same physical place.

    20:00

    After working out, Simon has dinner with Zeynep. The bill for the delicious dinner is sent directly to Simon’s wallet, where he chooses the tip amount and pays in digital euros. The wallet provider – his bank – sends him a notification every time a payment or other change is made in the wallet. Furthermore, his personal electronic wallet consists not only of means of payment, but also of a variety of tokenised assets: stocks, stablecoins, exchange traded funds (ETFs) and corporate bonds. Some of his friends even own fractions of classic cars, artworks, houses and other items in the same way. This is possible because, nowadays, previously illiquid asset classes, high-priced assets and expensive transactions can be digitally acquired and processed in small fractions at almost no transaction cost.

    After arriving home, Simon has a last look at the latest news broadcast in the metaverse based on his self-defined preferences. He then calls it a day.

    6. Smart Resistance

    Does this future vision, developed by the European Commission and the Association of German Banks, align with your expectations? Do you aspire to lead a comparable everyday life to Simon’s?

    If so, congratulations! You are likely to experience an unconditional love story with a connected and cooperative environment, where public and private actors collaborate to promote a sustainable and livable society.

    If this vision evokes mixed feelings for you, your relationship with the Smart Governance system may be more of a love story with reservations. Despite the perceived benefits of the new system, you may hope for the government to demonstrate a strong understanding of democracy and mitigate or at least consider the potential drawbacks of the system.

    History has taught us, however, that the understanding of democracy can evolve over time. It is influenced by various factors, including societal developments, political events, cultural changes, and individual experiences. For example, technological advancements, economic conditions, or political crises can impact the perception and interpretation of democracy. Media and political discourses can contribute to shifting perceptions and expectations regarding democracy over time.

    If you reject the vision, don’t forget that Michel Foucault’s theory states that power and resistance are inextricably linked. In a world increasingly shaped by technology and data, forms of resistance will also evolve. These will also use modern technologies to fight against the power structures of Smart Governance. This movement can be referred to as Smart Resistance.

    Smart resistance might leverage advanced technologies such as encryption, anonymizing networks (e.g. Tor), decentralized platforms, and blockchain to protect privacy and circumvent surveillance. Activists could use social media, online petitions, and digital campaigns to raise awareness, create impact, and demand political changes. Hacker groups might uncover vulnerabilities in Smart Governance systems to expose misuse and corruption or disrupt the operation of surveillance systems. Whistleblowers within organizations could leak internal information to the public to reveal abuses and misconduct.

    Legal and lobbying efforts will also play a crucial role, with groups and individuals using legal tools to challenge unfair or illegal practices and influencing political decisions through advocacy. Public education and awareness about the risks and challenges of Smart Governance will empower citizens to be better informed, think critically, and engage actively. Cultural expressions such as art and literature can provide platforms for critique and alternative perspectives. Finally, the development and use of alternative technologies, such as open-source software, decentralized social networks, and secure communication platforms, will promote greater autonomy and privacy.

    Michel Foucault viewed resistance as specific struggles against the everyday practices of power, rather than a fight against the existence of power itself. Power relations are deeply embedded in societal structures and cannot be simply eradicated; they cannot be radically abolished. This means that Smart Resistance will not completely eliminate Smart Governance but rather will confirm and shape it.

    Smart Resistance operates within the existing power structures, employing similar technologies and methods to combat specific abuses of power. This form of resistance questions and transforms the practices of Smart Governance, but it does not eliminate the fundamental existence of Smart Governance. Instead, Smart Resistance helps to scrutinize, balance, and potentially make these power dynamics more just and transparent. In this dynamic interplay between power and resistance, Smart Governance is not abolished but rather evolved and adapted to meet the ever-changing demands and challenges.

    In simple terms, Smart Resistance can ensure that Smart Governance does not turn into „Smeart” Governance.

    7. Epilogue – Is Smart Governance Truly the Only Option?

    The world itself, in its physical, natural form, is analog.

    Most natural phenomena are continuous rather than discrete. Temperature, light intensity, and sound waves change continuously over time and space, which is characteristic of analog signals. Physical reality consists of matter and energy in a constant flow. Objects move along continuous paths, and quantities like speed and acceleration are also continuous. Life processes such as heartbeat, neural activities, and photosynthesis are examples of analog systems in nature. Our senses also operate analogically: eyes perceive light as a continuous spectrum, ears detect sound waves continuously, and skin sensors respond to changes in temperature and pressure.

    Digital technologies are based on the discretization of information, whereby analogue signals are converted into binary codes. This digitization enables precise processing, storage and transmission of data, which is beneficial in many modern applications. The digital world offers enormous advantages in terms of efficiency, accuracy and accessibility. The coexistence of analog and digital creates a hybrid reality in which we live and work. The challenge is to integrate these two worlds harmoniously in order to reap the benefits of both approaches.

    Technological progress is a natural consequence of human curiosity, research and innovation. Economic incentives and competitiveness often drive these innovations, making it virtually impossible to stop technological progress. The challenge for society is to shape this progress in a way that respects and promotes people’s needs and values. This requires appropriate regulation and governance to minimize risks and ensure that new technologies are used in line with societal values.

    Smart Governance is not just a reaction to technological progress, but actively uses it to achieve its goals. In the modern world, which is increasingly dominated by technology and data, it often appears as an inevitable step in the evolution of governance models.

    Smart Governance is usually based on the analysis and use of large amounts of data to make decisions and optimize processes. However, this does not necessarily mean that these decisions are guided by wisdom.  

    „Knowledge” refers to the awareness and understanding of facts, information, and relationships. It is based on objective data and empirical evidence. In contrast, „wisdom” pertains to a deeper level of understanding and insight. It includes the ability to apply knowledge to make moral judgments, comprehend complex situations, and consider the impact of decisions on individuals and society.

    Knowledge is measurable and often objective, gained through data analysis, research and experience. Wisdom, on the other hand, is more subjective and involves emotional intelligence and moral insight. While knowledge is often applied to solve practical problems and promote technological advances, wisdom focuses more on ethical guidance and the long-term impact of decisions. Knowledge can change and evolve quickly, while wisdom is developed through life experience and reflection over time. Knowledge is the result of intellectual learning and training, while wisdom is associated with maturity and an understanding of social and emotional dynamics.

    Wisdom requires the ability to find balance and harmony in complex situations. It involves empathy and respect for the needs and wishes of others as well as consideration of long-term effects and consequences. Wisdom also means ensuring justice and fairness. Wise leadership recognizes that technological developments and societal needs are constantly evolving. The ability to respond flexibly to these changes while maintaining the basic principles of balance and respect is a sign of wisdom.

    In terms of smart governance, this means that data and technological solutions alone are not enough to solve complex social and political problems. The integration of wisdom is crucial to ensure that decisions are made fairly, sustainably and in the best interests of society. Smart Governance should therefore not only focus on collecting and analyzing data, but also on promoting wise leadership and ethical responsibility to support harmonious and humane development.

    It should recognize and respect the diversity of lifestyles by providing both digital and analog options for accessing services and participating in public life. Citizens should have the freedom to choose the extent to which they want to use digital technologies without being forced to do so. A right to analog life requires that analog systems remain accessible and user-friendly, including physical government offices and paper-based forms. Support services should be offered to help people who have difficulties with digital technologies.

    The protection of privacy is particularly important, regardless of whether citizens prefer digital or analog lifestyles. Educational programs should support citizens in making informed decisions about the use of digital technologies while emphasizing the possibilities of an analog lifestyle. Legal frameworks must protect the right to an analog life and ensure that analog options are preserved in public and private services.

    The coexistence of Smart Governance and the right to an analog life requires a balance between technological progress and respect for individual lifestyles. By integrating these principles, wise leadership can ensure that technological innovation benefits all without jeopardizing the diversity of human lifestyles.


    Sources (as of 25.07.2024)

  • Smart Governance

    Smart Governance

    Die Kunst des Regierens

    Fragt man ChatGPT unvoreingenommen nach Assoziationen zum Begriff „Smart Governance“ und bittet um eine satirische Beschreibung, erhält man folgenden Vorschlag:

    Smart Governance ist das visionäre Konzept, das uns glauben lässt, wir leben in einer perfekten Symbiose von Technik und Verwaltung, während wir in Wirklichkeit von einem unsichtbaren Netz aus Algorithmen, Datenströmen und bürokratischer Überwachung gefangen sind. Stellen Sie sich eine Welt vor, in der Ihre Entscheidungen nicht mehr von Ihnen selbst, sondern von einer KI getroffen werden, die genau weiß, was Sie wollen – bevor Sie es selbst wissen.

    In der Ära der Smart Governance überwachen freundliche, allwissende KIs jeden Ihrer Schritte. Diese wohlmeinenden digitalen Hirten sind stets bereit, Ihnen mitzuteilen, wann es Zeit ist, aufzustehen, wann Sie zur Arbeit gehen sollten und ob Ihre Joggingroute heute besonders effizient ist – natürlich alles im Namen Ihrer Produktivität und Gesundheit.

    Vergessen Sie die Freiheit, spontane Entscheidungen zu treffen. Ihre To-Do-Liste wird von einem allmächtigen Algorithmus gepflegt, der jeden Aspekt Ihres Lebens optimiert. Warum sollten Sie darüber nachdenken, was Sie zum Abendessen wollen, wenn die Smart Governance bereits den perfekten Ernährungsplan für Sie berechnet hat?

    In dieser utopischen Welt der Smart Governance gibt es keine Geheimnisse. Ihre Daten sind offen zugänglich, denn Transparenz ist der Schlüssel. Von Ihren finanziellen Transaktionen bis hin zu Ihren letzten Arztbesuchen – alles ist öffentlich, um sicherzustellen, dass alle auf dem gleichen Wissensstand sind. Schließlich, warum sollte jemand etwas zu verbergen haben?

    Ihr Verhalten wird ständig durch subtile Hinweise (Nudges) korrigiert. Möchten Sie die letzte Praline im Schrank essen? Ein sanfter Hinweis auf Ihrem Smartphone wird Sie darauf aufmerksam machen, dass Sie bereits Ihre Kaloriengrenze erreicht haben. Auf diese Weise lernen Sie, immer die „richtigen“ Entscheidungen zu treffen, ohne die Last des Nachdenkens.

    Ihre Meinung zählt – zumindest theoretisch. Automatisierte Systeme nehmen Ihnen die Mühe der Teilnahme an Abstimmungen ab, indem sie auf Basis Ihrer bisherigen Präferenzen entscheiden. Schließlich hat die KI ein besseres Verständnis Ihrer Bedürfnisse und Wünsche als Sie selbst.

    Smart Governance ist die triumphale Weiterentwicklung des gläsernen Bürgers, in der Sie sich keine Sorgen mehr machen müssen, eigene Entscheidungen zu treffen. In dieser satirischen Vision der Zukunft sind Sie nicht länger Herr Ihrer selbst, sondern ein gut betreutes Subjekt in einem perfekt durchorganisierten digitalen Paradies. Alles für das höhere Ziel der Effizienz und Optimierung – willkommen in der smarten Welt von morgen!

    Bevor wir in die wunderbare Welt der smarten Regierungen eintauchen, lassen Sie uns erst einmal die grundlegenden Begriffe klären. Und keine Sorge, es wird nicht so kompliziert wie bei einem Politiker, der versucht, eine einfache Frage zu beantworten!

    Der Begriff ’smart‘ hat eine faszinierende Entwicklung hinter sich. Ursprünglich aus dem Altenglischen ’smeart‘ stammend, bedeutete er so viel wie ’schmerzhaft‘ oder ’stechend‘. Ja, Sie haben richtig gelesen – damals hätte man bei einem Wespenstich gesagt: „Das war aber smart!“ Heutzutage bedeutet ’smart‘ jedoch etwas völlig anderes. Es steht für Klugheit, Effizienz und Technologie – wie bei Ihrem Smartphone, das schlauer ist als so mancher Politiker!

    Kommen wir zum nächsten Begriff ‚Governance‘. Dieser stammt aus dem Lateinischen und bedeutet so viel wie ‚Steuern‘ oder ‚Lenken‘. Es geht also um die Kunst und Wissenschaft, eine Gesellschaft zu führen, Entscheidungen zu treffen und die Ordnung aufrechtzuerhalten. Stellen Sie sich Governance wie ein großes Schachspiel vor, bei dem die Bürger die Spielfiguren sind – jedoch ohne das Risiko, dass jemand die Bauern opfern muss.

    Aber wie wird aus einfacher Governance nun Smart Governance? Ganz einfach: Man fügt Technologie, Datenanalyse und eine Prise Innovation hinzu. Das Ergebnis ist eine Regierung, die schneller reagiert, besser informiert ist und sogar Ihre Mails liest – ähm, natürlich nur im guten Sinne! In der Welt der Smart Governance wird aus dem klassischen ‚Wer regiert die Welt?‘ auf magische Weise ein ‚Wer ist der Schlaueste im Raum?‘.

    Governance und Smart Governance sind wie Geschwister, die um die Fernbedienung streiten – nur dass es hier um die Kontrolle über ganze Nationen geht! Aber lassen Sie uns nicht vergessen, was diese beiden Geschwister wirklich zusammenhält: Macht. Macht, um Entscheidungen zu treffen, Macht, um die Dinge zu ändern, und Macht, um zu entscheiden, wer die Pizza beim nächsten Kabinettstreffen bestellt.

    Governance und Smart Governance sind die Rahmen, durch die Macht ausgeübt, kontrolliert und legitimiert wird – wie der unsichtbare Zauberer hinter den Kulissen, der die politische Bühne beherrscht. Doch was bedeutet eigentlich Macht?

    Macht ist eine faszinierende Kraft, die in den sozialen Beziehungen und Strukturen unserer Welt wirkt. Sie bezeichnet die Fähigkeit einer Person oder Gruppe, das Verhalten, die Entscheidungen oder die Handlungen anderer zu beeinflussen oder zu kontrollieren. Ob in der Politik, der Wirtschaft, der Gesellschaft oder auf persönlicher Ebene – Macht manifestiert sich auf vielfältige Weise und prägt unser tägliches Leben.

    Von politischer Autorität über soziales Ansehen bis hin zu wirtschaftlichem Einfluss gibt es verschiedene Formen und Dimensionen von Macht, die miteinander verflochten sind und unsere Welt auf komplexe Weise gestalten. Sie kann sowohl offensichtlich und direkt als auch subtil und indirekt sein, und oft ist sie ungleich verteilt, was zu Spannungen, Ungerechtigkeit oder sogar Konflikten führen kann.

    Das Gefühl, über Menschen und Vorgänge keine Macht zu haben, ist uns allgemein unerträglich – wenn wir hilflos sind, fühlen wir uns elend. Niemand will Macht abgeben, alle wollen mehr. In der heutigen Welt ist es jedoch gefährlich, als zu machthungrig zu erscheinen, zu unverhohlen seine Machtspielchen zu treiben. Fairness und Anstand werden von uns erwartet, also müssen wir subtil vorgehen – schicklich, aber schlau, demokratisch, aber diabolisch.
    Robert Greene, POWER – Die 48 Gesetze der Macht

    Der Drang nach Macht ist ein grundlegendes menschliches Bedürfnis. In einer Welt, die von demokratischen Prinzipien und Menschenrechten geprägt ist, ist jedoch die direkte und offene Ausübung von Macht oft nicht akzeptabel. Stattdessen erfordert es subtile Strategien und Taktiken, um Macht zu erlangen und zu erhalten, während man gleichzeitig ein Image von Fairness und Anstand bewahrt. In einer Welt, die von zunehmender Transparenz und dem Streben nach Gerechtigkeit geprägt ist, ist die Fähigkeit, Macht auf intelligente und geschickte Weise auszuüben, von entscheidender Bedeutung, um langfristige Ziele zu erreichen und Veränderungen herbeizuführen. Dies bedeutet nicht, dass ‚Smart Governance‘ manipulativ oder unethisch sein sollte. Im Gegenteil, es erfordert ein ausgewogenes Verständnis der ethischen Grenzen und eine sorgfältige Abwägung zwischen Macht und Verantwortung.

    Michel Foucault, ein bedeutender Denker in Bezug auf die Analyse von Machtstrukturen, betonte die Allgegenwart von Macht in den sozialen Strukturen und Interaktionen. Er argumentierte, dass Macht nicht nur von oben nach unten ausgeübt wird, sondern aus verschiedenen Richtungen und Ebenen kommt. Diese Perspektive betont die Komplexität und Vielschichtigkeit der Machtverhältnisse und erinnert uns daran, dass Macht nicht auf bestimmte Institutionen oder Individuen beschränkt ist, sondern in den kleinsten und alltäglichsten Interaktionen präsent ist.

    Macht ist überall: Nicht, dass sie alles verschlingt, sondern dass sie von überall herkommt.
    Michel Foucault, Geschichte der Sexualität

    Foucaults Ideen unterstreichen die Bedeutung eines umfassenden Verständnisses von Macht und zeigen auf, dass Macht nicht nur durch offene Konfrontation oder offensichtliche Autorität ausgeübt wird, sondern auch durch subtile Mechanismen der Normalisierung, Disziplinierung und Überwachung. In einer Welt, in der Macht oft hinter den Kulissen wirkt, ist es entscheidend, diese verborgenen Dynamiken zu erkennen und kritisch zu hinterfragen, um ein gerechteres und ausgewogeneres Machtverhältnis zu erreichen.

    In den kommenden Kapiteln werden wir uns zunächst den theoretischen Grundlagen der Macht in einer Gesellschaft zuwenden und deren Verhältnis zur Governance sowie zur Smart Governance analysieren. Dabei werden wir uns mit der Frage beschäftigen, wie Machtstrukturen sowohl formell als auch informell organisiert sind und wie sie durch verschiedene Mechanismen – politische, wirtschaftliche und soziale – ausgeübt werden.

    Anschließend werden konkrete Beispiele wie die Corona-Politik und der One-Health-Ansatz untersucht, um verschiedene Formen der Governance zu veranschaulichen.

    Des Weiteren werden einige wesentliche technologische Eckpfeiler der Smart Governance beleuchtet und ein Ausblick auf die Zukunft dieser Entwicklung gegeben.

    Durch diese eingehende Analyse und Untersuchung möchten wir ein tieferes Verständnis für die Dynamik von Macht, Governance und Smart Governance fördern und die Leser dazu anregen, kritisch über die Wege nachzudenken, wie Macht in unserer modernen Welt ausgeübt und gelenkt wird.


    1. Gouvernementalität - die sichtbaren und unsichtbaren Fäden der Macht
    1.1. Verknüpfung von Wissen und Macht
    1.2. Biopolitik
    1.3. Dispositive der Macht
    1.4. Disziplinarmacht
    1.5. Technologien der Selbstführung
    1.6. Widerstand und Gegenmacht
    1.7. Fazit
    2. Corona-Krise: Governance und Biopolitik im Ausnahmezustand
    3. One-Health-Ansatz – Prävention durch kontinuierliche Governance
    4. Die technologischen Eckpfeiler der Smart Governance
    4.1. Die Europäische Digitale ID
    4.2. Die technologische Selbstführung als Fundament der Smart Governance
    4.3. Digital Twins als Grundlage für Smart Governance-Strategien
    4.4. Das intelligente Geld – Smart Money und Smart Governance
    5. Ein Blick in die Zukunft - Smart Governance in seiner besten Form
    6. Smart Resistance
    7. Epilog - Ist Smart Governance wirklich alternativlos?

    1. Gouvernementalität – die sichtbaren und unsichtbaren Fäden der Macht

    Bei seiner Analyse der Formen der Regierungsführung und des Regierens in modernen Gesellschaften führt Foucault den Begriff „Gouvernementalität“ ein. Dieser kombiniert die Wörter ‚Regierung‘ und ‚Mentalität‘ und verweist darauf, dass Regierungstechniken und -praktiken tief in das Denken und Verhalten der Menschen eingreifen.

    Foucault argumentiert, dass Regierungsführung nicht nur eine Frage von politischen Institutionen oder staatlicher Autorität ist, sondern eine komplexe Netzwerkstruktur von Wissen, Maßnahmen und Techniken umfasst, die darauf abzielen, das Verhalten der Menschen zu steuern und zu lenken. Dabei geht es nicht nur um die direkte Ausübung von Zwang oder Kontrolle, sondern auch um die Konstruktion bestimmter Wissenssysteme, Normen und Verhaltensweisen, die die Menschen auf subtile Weise beeinflussen.

    Die Gouvernementalität umgibt uns wie eine dreidimensionale Matrix. Sie hat verschiedene Gesichter und teilweise widersprüchliche Erscheinungsformen, sodass man häufig „vor lauter Bäumen den Wald nicht sieht“. Eine einfache Orientierungshilfe in diesem ‚Macht-Dickicht‘ kann die folgende Klassifizierung ihrer wichtigsten Aspekte liefern.

    1.1. Verknüpfung von Wissen und Macht

    Der Ausdruck „Wissen ist Macht“ hat sich im Laufe der Jahrhunderte etabliert und wird oft so interpretiert, dass jemand, der viel weiß, auch großen Einfluss besitzt und anderen überlegen ist. Diese Vorstellung hat nicht immer eine positive Konnotation: Je mehr man über eine Person weiß, desto mehr Kontrolle kann man über sie ausüben und ihre Schwächen ausnutzen.

    In Foucaults Analyse ist das Wissen selbst ein Instrument der Macht, sowohl auf Makro- als auch auf Mikroebene. Es ist nicht neutral, sondern immer auch mit Machtprozessen verknüpft, die gesellschaftliche Strukturen und individuelle Lebensläufe tiefgreifend beeinflussen. Diejenigen, die über Wissen verfügen oder die Kontrolle darüber ausüben, haben auch Macht über andere.

    Wissen beinhaltet das Verstehen von Mustern, Zusammenhängen und Bedeutungen. Wissen entsteht, wenn Informationen analysiert, verknüpft und in einem verständlichen und nützlichen Rahmen interpretiert werden. Informationen entstehen aus Daten, wenn die letzten in einen Kontext gestellt und interpretiert werden. Daten wiederum sind Rohinformationen, die gesammelt werden können.

    Die Menge der verfügbaren Daten kann sicherlich die Möglichkeiten zur Gewinnung von Wissen erweitern, jedoch führt nicht die bloße Vermehrung von Daten automatisch zu mehr Wissen. Vielmehr kommt es darauf an, wie Daten gesammelt, analysiert, interpretiert und in einen nützlichen Kontext gestellt werden. Die Qualität der Daten, die Methoden der Analyse und die Fähigkeit, Informationen sinnvoll zu synthetisieren und zu interpretieren, spielen eine entscheidende Rolle bei der Transformation von Daten zu Wissen.

    Die Verknüpfung von Wissen und Macht ist eine zentrale treibende Kraft der Digitalisierung moderner Gesellschaften. Mit der Digitalisierung werden riesige Mengen an Daten (Big Data) generiert, gesammelt und analysiert. Big Data umfasst Informationen aus verschiedenen Quellen wie sozialen Medien, Sensoren, Transaktionen, medizinischen Aufzeichnungen und mehr. Regierungen und Unternehmen nutzen Big Data und fortschrittliche Analysetechniken, um umfangreiche Informationen über die Bevölkerung zu sammeln, zu analysieren und zu interpretieren. Diese Daten enthalten oft persönliche Informationen wie demografische Daten, Verhaltensmuster, Konsumverhalten, Gesundheitsdaten und soziale Interaktionen.

    Um Erkenntnisse aus diesen Analysen zu gewinnen, wird zunehmend künstliche Intelligenz (KI) eingesetzt. KI umfasst Technologien, die es Computern ermöglichen, Aufgaben zu erledigen, die normalerweise menschliche Intelligenz erfordern würden. Durch den Einsatz von Maschinellem Lernen (ML), einem Teilgebiet der KI, das sich auf Algorithmen und Modelle konzentriert, die es Computern ermöglichen, aus Daten zu lernen und Vorhersagen zu treffen, werden prädiktive Modelle entwickelt, die zukünftige Ereignisse prognostizieren können.

    Die Kombination aus Big Data, künstlicher Intelligenz (KI) und maschinellem Lernen (ML) bietet Regierungen und Unternehmen neue Werkzeuge. Sie können damit Trends erkennen, Risikobewertungen und prädiktive (vorausschauende) Analysen durchführen, Überwachungsprogramme umsetzen, Interventionen planen, Ressourcen zuteilen, gesellschaftliche Prozesse steuern, fundierte Entscheidungen treffen und letztlich Macht ausüben.

    Die „Verknüpfung von Wissen und Macht“ ist allgegenwärtig und omnipräsent.

    Regierungen und Unternehmen nutzen die gewonnenen Daten, um Überwachungs- und Kontrollmechanismen zu implementieren. Dies reicht von der staatlichen Überwachung zur Bekämpfung von Kriminalität und Terrorismus bis hin zur Nutzung durch Unternehmen, um Konsumverhalten zu beeinflussen und Marktanteile zu sichern.

    Durch Big-Data-Analyse und ML können prädiktive Analysen zur Bekämpfung von Epidemien, zur Steuerung von Verkehrsflüssen oder zur Planung städtischer Infrastruktur durchgeführt werden und auf dieser Basis politische Entscheidungen getroffen werden.

    Durch die Sammlung und Analyse von Gesundheitsdaten (elektronische Patientenakten, Gesundheits-Apps, genetische Daten) können Gesundheitsbehörden und -institutionen präzisere und effektivere Maßnahmen zur Gesundheitsvorsorge und -versorgung ergreifen. Diese Maßnahmen können auch zur Kontrolle und Steuerung von Gesundheitsverhalten (z. B. Impfkampagnen, Quarantänemaßnahmen usw.) genutzt werden.

    Im Bildungsbereich werden Daten über Schülerleistungen und -verhalten gesammelt und analysiert, um Bildungsstrategien zu entwickeln, die auf die individuellen Bedürfnisse der Schüler zugeschnitten sind. Dies beeinflusst nicht nur die Bildungspolitik, sondern auch die zukünftigen Möglichkeiten und Chancen der Schüler.

    Unternehmen nutzen Datenanalyse, um die Produktivität und Effizienz zu steigern, Arbeitsprozesse zu optimieren und das Verhalten der Arbeitnehmer zu überwachen und zu steuern.

    Plattformen wie Facebook, Google und Amazon sammeln umfangreiche Daten über ihre Nutzer und nutzen diese, um personalisierte Inhalte und Werbung bereitzustellen, die das Verhalten der Nutzer beeinflussen und steuern. Diese Plattformen besitzen immense Macht, da sie über das Wissen verfügen, das aus den Daten ihrer Milliarden von Nutzern gewonnen wird. Sie können öffentliche Meinungen formen, Kaufentscheidungen beeinflussen und sogar politische Bewegungen fördern oder behindern. Als zentraler Aspekt der Gouvernementalität wird die Verknüpfung von Wissen und Macht durch Smart Governance in die Praxis umgesetzt.

    1.2. Biopolitik

    Ein wesentlicher Bestandteil der Gouvernementalität ist die Biopolitik, die sich mit der gesamten Verwaltung der Bevölkerung durch staatliche und andere Institutionen befasst. Sie umfasst daher viele Aspekte des menschlichen Verhaltens und sozialen Lebens. Dies schließt Maßnahmen zur Gesundheitsfürsorge, Sozialpolitik und Bevölkerungsstatistik und andere staatliche Interventionen ein, die das Leben und das Wohlbefinden der Bevölkerung betreffen. Die Biopolitik umfasst weiterhin wichtige Bereiche wie Reproduktion und Familienpolitik, Ernährung und Konsum, Bildung und Erziehung, Arbeit und Beschäftigung, Umweltschutz und Nachhaltigkeit, Sicherheit und Überwachung, Migration und Staatsbürgerschaft, Sexualität und Geschlechterpolitik.

    Durch die Einführung von Gesetzen, Richtlinien und Standards verwaltet und reguliert die Biopolitik das Leben der gesamten Bevölkerung in all seinen Aspekten. Mit diesen umfassenden Maßnahmen zielt die Biopolitik darauf ab, das Verhalten der Bevölkerung zu steuern und bestimmte gesellschaftliche Ziele zu erreichen.

    Hier sind ein paar konkrete Beispiele:

    Im Bereich der Gesundheitsführsorge gibt es in vielen Ländern Gesetze, die bestimmte Impfungen vorschreiben, um den Ausbruch und die Verbreitung von Infektionskrankheiten zu verhindern (z. B. das Masernschutzgesetz, das eine Masernimpfpflicht für Kinder in Kitas und Schulen sowie für Mitarbeiter in medizinischen Einrichtungen und Gemeinschaftseinrichtungen vorsieht.)

    Andere Gesetze und Maßnahmen dienen der Kontrolle und Eindämmung von Epidemien (z. B. das Infektionsschutzgesetz (IfSG) in Deutschland, das Maßnahmen zur Verhütung und Bekämpfung von Infektionskrankheiten beim Menschen regelt und Quarantänemaßnahmen sowie Meldepflichten festlegt).

    Durch Schulpflicht, Lehrpläne und Bildungsstandards werden die Bildungssysteme genutzt, um Wissen und Fähigkeiten zu vermitteln, aber auch, um soziale Normen und Werte zu fördern, die für die Stabilität und den Fortschritt der Gesellschaft als wichtig erachtet werden.

    Durch Richtlinien zur Lebensmittelproduktion, Ernährungsstandards oder Programme zur Bekämpfung von Fettleibigkeit wird die Ernährung und des Konsums reguliert. Damit können Regierungen die Gesundheit und das Verhalten der Bevölkerung beeinflussen, um bestimmte gesundheitliche oder wirtschaftliche Ziele zu erreichen.

    Durch Umweltgesetze und -standards können Regierungen das Verhalten von Individuen und Unternehmen steuern, um langfristige ökologische Ziele zu erreichen.

    Durch Einwanderungsgesetze kann die Migration reguliert und die Bestimmung der Staatsbürgerschaft sowie die demografische Zusammensetzung und die kulturelle Dynamik innerhalb eines Staates beeinflusst werden.

    Gesetze zur Gleichstellung, LGBT-Rechte und Sexualerziehung, die sexuelle Orientierung und Geschlechtsidentität betreffen, haben tiefgreifende Auswirkungen auf die sozialen Normen in der Gesellschaft.

    usw.

    Durch die fortschreitende Digitalisierung von fast allen Aspekten des gesellschaftlichen Lebens werden immer neue Begriffe wie Smart Health, Smart Cities, Smart Economy usw. definiert. Die Macht, die durch Wissen entsteht, wird durch biopolitische Maßnahmen konkret und spürbar in der täglichen Regierungsführung und Verwaltung umgesetzt.

    Die Verwirklichung der biopolitischen Strategien und Ziele erfordert entsprechende Infrastruktur und Mechanismen. Und so kommen wir zu den so genannten Dispositiven der Macht.  

    1.3. Dispositive der Macht

    Dispositive sind Netzwerke aus verschiedenen Elementen wie Institutionen, Gesetzen, Vorschriften, administrativen Maßnahmen und wissenschaftlichen Diskursen, die zusammenarbeiten, um bestimmte gesellschaftliche Ziele zu erreichen. Diese Netzwerke schaffen und implementieren die Rahmenbedingungen, innerhalb derer Macht ausgeübt wird.

    Biopolitik operiert innerhalb und durch die Dispositive der Macht. Die Netzwerke, die die Dispositive bilden, sind die Strukturen, durch die biopolitische Strategien implementiert werden. Zum Beispiel nutzt die Biopolitik Institutionen wie Krankenhäuser, Sozialeinrichtungen, Schulen, Medien, Unternehmen in allen Industriebereichen, und Gefängnisse, die alle Teile von Dispositiven der Macht sind.

    Dispositive der Macht stellen die Mittel und Mechanismen dar, durch die biopolitische Maßnahmen koordiniert und umgesetzt werden. Ein Dispositiv zur öffentlichen Gesundheit kann Krankenhäuser, Gesundheitsgesetze, Impfkampagnen und medizinische Forschung umfassen, die alle zusammenarbeiten, um die gesundheitlichen Ziele der Biopolitik zu erreichen.

    Durch Dispositive der Macht wird die Normierung und Kontrolle von Bevölkerungen ermöglicht. Die Biopolitik zielt darauf ab, bestimmte Normen und Verhaltensweisen zu fördern, und die Dispositive schaffen die Rahmenbedingungen, innerhalb derer diese Normen und Verhaltensweisen als „normal“ und „wünschenswert“ etabliert werden. Dispositive integrieren verschiedene Elemente der Gesellschaft und schaffen eine Umgebung, in der bestimmte Verhaltensweisen gefördert und andere entmutigt werden.

    Dadurch wird das Verhalten der Menschen auf subtile und oft unsichtbare Weise geformt und gelenkt. Anstatt offener Zwangsmaßnahmen nutzen die Dispositive Wissenssysteme, Diskurse und institutionelle Praktiken, um das Verhalten der Menschen zu beeinflussen.

    Die praktische Umsetzung sieht meistens wie folgt aus:

    Gezielt organisierte Sammlungen von Wissen und Informationen in Form von wissenschaftlichen Studien und Nachrichtenberichten können die Grundlagen liefern, auf denen Menschen ihre Ansichten und Entscheidungen aufbauen. (Wenn Menschen durch wissenschaftliche Studien informiert werden, dass Impfungen Krankheiten verhindern können, sind sie eher bereit, sich impfen zu lassen.)

    Diese können mit Gesprächen und Diskussionen in der Gesellschaft über bestimmte Themen kombiniert werden. Diese Gespräche finden in den Medien, in der Politik und im Alltag statt. Diese Diskurse formen die Meinungen und Einstellungen der Menschen. (Die Art und Weise, wie Medien Themen darstellen, beeinflusst die öffentliche Meinung. Wenn Medien häufig über die Gefahren des Klimawandels berichten, steigt das Bewusstsein in der Bevölkerung und Menschen sind eher bereit, umweltfreundliche Entscheidungen zu treffen, wie das Reduzieren von Plastikmüll oder das Nutzen öffentlicher Verkehrsmittel.)

    In den meisten Fällen führen diese Aktionen zu der Einführung von Regeln und Normen, an die sich Menschen halten müssen. (Durch die Implementierung von Impfprogrammen und präventiven Gesundheitsuntersuchungen in Krankenhäusern und Kliniken wird die Bevölkerung regelmäßig zur Vorsorgeuntersuchung und Impfung angehalten.)

    Smart Governance kann als eine moderne Ausdrucksform der Dispositive der Macht betrachtet werden, die traditionelle Konzepte der Regulierung, Normierung und Überwachung durch modernste Technologien und Datenanalysen erweitert und vertieft.

    Ein Dispositiv kann Disziplinarmacht als eine der Methoden der Machtausübung miteinbeziehen.

    1.4. Disziplinarmacht

    Während Biopolitik sich auf die Verwaltung von Bevölkerungen konzentriert, fokussiert sich die Disziplinarmacht auf die Regulierung von Individuen. Beide Machtformen haben das Ziel, das Verhalten der Menschen zu steuern und zu optimieren. Während Biopolitik auf der Makroebene agiert, indem sie die Bedingungen und Lebensumstände der gesamten Bevölkerung reguliert, greift die Disziplinarmacht auf der Mikroebene ein, indem sie die Körper und Verhaltensweisen von Individuen formt. Beide Formen der Macht ergänzen sich und schaffen ein umfassendes System der sozialen Kontrolle.

    Disziplinarmacht wird durch Überwachung, Normsetzung, Bestrafung und Belohnung, Ausbildung und Training ausgeübt. Sie zielt darauf ab, Individuen zu disziplinieren, ihre Körper und Verhaltensweisen zu normieren und sie produktiv zu machen.

    Die meisten von Ihnen werden sicherlich zunächst an Gefängnisse und Strafvollzug denken. In der Tat setzt das Strafrechtssystem in demokratischen Gesellschaften auf Disziplinarmacht, um normwidriges Verhalten zu sanktionieren und zu korrigieren. Gefängnisse und Strafanstalten sind Einrichtungen, in denen Überwachung, Bestrafung und Rehabilitation eine zentrale Rolle spielen.

    Aber die meisten von uns werden mit der Disziplinarmacht wesentlich häufiger konfrontiert, als sie denken.

    Schulen sind ein klassisches Beispiel für Institutionen, die Disziplinarmacht ausüben. Durch Lehrpläne, Klassenregeln, Prüfungen und Überwachungssysteme werden Schülerinnen und Schüler dazu angehalten, normkonformes Verhalten zu zeigen und bestimmte Leistungsstandards zu erreichen.

    Arbeitgeber nutzen Disziplinarmacht, um das Verhalten ihrer Angestellten zu kontrollieren und zu lenken. Durch Arbeitsverträge, Mitarbeiterbewertungen, Überwachung am Arbeitsplatz und Belohnungs- bzw. Bestrafungssysteme können Arbeitgeber die Produktivität und Konformität ihrer Mitarbeiter beeinflussen.

    In demokratischen Gesellschaften gibt es verschiedene soziale Kontrollmechanismen, die Disziplinarmacht ausüben. Dazu gehören soziale Normen, moralische Erwartungen, kulturelle Werte und Peer-Druck, die das Verhalten der Menschen beeinflussen und regulieren. Peer-Druck bezieht sich auf den Einfluss, den Gleichaltrige oder ‚Peers‘ auf das Verhalten, die Einstellungen oder die Entscheidungen einer Person ausüben können. Dieser Einfluss entsteht aus dem Wunsch, von der Gruppe akzeptiert, gemocht oder respektiert zu werden.

    Auch hier spielen die Medien eine wichtige Rolle bei der Ausübung von Disziplinarmacht. Durch gezielte Berichterstattung, Werbung und Unterhaltungsformate können sie bestimmte Normen, Werte und Verhaltensweisen propagieren, fördern und unterstützen und dadurch moralische Erwartungen oder den Peer-Druck auf Individuen in die eine oder andere Richtung lenken.

    Abschließend ist es wichtig zu erkennen, dass das Bestrafungs- und Belohnungssystem eine Wirkung auf das psychologische Verhalten hat. Es verändert die Regeln des Systems von etwas, das man befolgen muss, zu etwas, das man befolgen möchte, weil es im eigenen Interesse liegt, dies zu tun. Diese Philosophie bildet die Grundlage für die „Technologien der Selbstführung“, die auf Motivationssysteme setzen, um gewünschtes Verhalten zu fördern. Indem sie positive und negative Anreize geschickt kombinieren, unterstützen sie die Nutzer dabei, sich selbst zu steuern und persönliche sowie gesellschaftliche Ziele zu erreichen.

    1.5. Technologien der Selbstführung

    Technologien der Selbstführung, oder „Technologien des Selbst“, beziehen sich auf die Methoden und Praktiken, die Individuen anwenden, um sich selbst zu regulieren, zu formen und zu kontrollieren. Dies kann durch Selbstdisziplin, Reflexion, Selbstverbesserung und andere persönliche Strategien erfolgen mit dem Ziel, bestimmter Normen gerecht zu werden.

    Die durch ‚Biopolitik‘ und ‚Dispositive der Macht‘ etablierten gesetzlichen und normativen Rahmenbedingungen für die Steuerung und Lenkung auf kollektiver Ebene beeinflussen das Verhalten und das Selbstbild des Individuums. Durch Technologien der Selbstführung verinnerlichen Menschen diese Normen. Dadurch passen sie ihr Verhalten freiwillig und bewusst an, weil sie die Regeln als nützlich und vorteilhaft für sich selbst empfinden.

    Fitness-Apps setzen auf positive Verstärkung durch Belohnungen und Herausforderungen, um Nutzer zur regelmäßigen Bewegung zu motivieren. Lernplattformen bieten Belohnungen für abgeschlossene Module oder bestandene Tests, wodurch die Motivation gesteigert wird, kontinuierlich zu lernen. Finanz-Apps bieten Anreize für das Einhalten von Budgets und das Sparen von Geld, während sie gleichzeitig negative Konsequenzen für übermäßige Ausgaben aufzeigen. Selbstmanagement-Methoden wie das Eisenhower-Prinzip oder die Pomodoro-Technik regen die Menschen dazu an, ihre Zeit effizient zu nutzen und sich auf wichtige Aufgaben zu konzentrieren.

    So werden externe Vorgaben zu internen Motivationen.

    1.6. Widerstand und Gegenmacht

    Manche von Ihnen könnten von der theoretischen Einteilung der wichtigsten Aspekte der Gouvernementalität irritiert oder beunruhigt sein. Aber nach Foucault sind Macht und Widerstand eng miteinander verbunden. Wo Macht existiert, besteht auch die Möglichkeit des Widerstands. Widerstand entsteht nicht von außerhalb oder unabhängig von der Macht, sondern ist Teil der Beziehung zwischen den Machtakteuren selbst.

    Wo es Macht gibt, gibt es Widerstand. Und doch oder vielmehr gerade deswegen liegt der Widerstand niemals außerhalb der Macht.
    Michel Foucault und die Disziplinarmacht

    Machtverhältnisse können nur bestehen, wenn es Widerstandspunkte gibt, die sich ihnen entgegenstellen. Widerstand ist immer Teil des Netzwerks der Macht und dient der Macht als Gegner, Zielscheibe, Unterstützung oder Einfallstor. Es gibt nicht nur einen einzigen großen Widerstandsort, sondern viele einzelne Widerstände, die jedoch nicht notwendigerweise die Macht insgesamt überwinden. Sobald es also Macht gibt, besteht die Möglichkeit des Widerstands. Widerstand kommt nicht vor oder nach der Macht, sondern beide existieren gleichzeitig und bedingen einander.

    Diese Überlegungen widerspiegeln die Dynamik zwischen Konformität und Nonkonformität in der Gesellschaft. Sie verdeutlicht, dass eine kleine Gruppe von nonkonformen Individuen eine bedeutende Rolle in der Förderung von Veränderungen und Innovationen spielt, während die konforme Mehrheit zur Stabilität und Ordnung beiträgt.

    Konformität und Nonkonformität sind keine starren Kategorien, sondern eher dynamische Konzepte, die stark vom sozialen Kontext und den individuellen Umständen abhängen. Was in einer Situation als konform oder nonkonform betrachtet wird, kann in einer anderen Situation anders sein. Diese Begriffe existieren auf einem Kontinuum, und das Verhalten eines Menschen kann sich je nach den Umständen zwischen diesen beiden Polen bewegen.

    Foucault betrachtete den Widerstand als spezifische Kämpfe gegen die alltäglichen Ausübungen von Macht, nicht als Kampf gegen die Existenz von Macht insgesamt. Da Machtverhältnisse tief in den gesellschaftlichen Strukturen verankert sind und nicht einfach beseitigt werden können, können sie nicht radikal abgeschafft werden.

    Die Interaktion zwischen Governance und Widerstand ist ein dynamischer und komplexer Prozess, der auf verschiedene Weisen abläuft.

    Wenn Regierungen auf Widerstand stoßen, können sie Kompromisse eingehen oder Zugeständnisse machen, um ihre Maßnahmen akzeptabler zu machen und den Widerstand zu verringern. Indem sie die Anführer des Widerstands einbeziehen oder bestimmte Forderungen in ihre Programme aufnehmen, können Regierungen den Widerstand nicht nur abschwächen, sondern ihn auch in ihre eigene Strategie integrieren.

    Durch bestimmte Diskurse können Regierungen ihre Maßnahmen als notwendig oder vorteilhaft darstellen, um die Akzeptanz in der Bevölkerung zu erhöhen. Gleichzeitig können sie Widerstandsbewegungen als illegitim, irrational oder gefährlich darstellen, um deren Einfluss zu mindern.

    Moderne Technologien wie Big Data, Künstliche Intelligenz (KI) und Maschinelles Lernen (ML) bieten Regierungen neue Möglichkeiten, Widerstand zu überwachen und zu analysieren. Durch die Datenanalyse können sie potenzielle Widerstandsbewegungen frühzeitig erkennen und entsprechend reagieren. Mithilfe prädiktiver Modelle können Regierungen mögliche Widerstandsmuster vorhersagen und proaktive Maßnahmen ergreifen.

    Widerstand und Gegenmacht wirken als Feedback-Mechanismen innerhalb der Machtstrukturen. Sie zeigen Regierungen und Institutionen, wo Spannungen und Unzufriedenheiten bestehen, und können zu Anpassungen in den Regierungsstrategien führen. Wiederholter und bedeutender Widerstand kann Regierungen zwingen, politische Reformen durchzuführen oder bestehende Maßnahmen zu überdenken. Widerstandsbewegungen können wichtige öffentliche Debatten anstoßen, die zur Bildung neuer Normen und Werte beitragen, welche dann in die Regierungsstrategien einfließen.

    Die ständige Interaktion zwischen Macht und Widerstand kann zur Entstehung neuer Machtverhältnisse sowie zur Weiterentwicklung und Veränderung der Regierungspraktiken und -technologien führen.

    1.7. Fazit

    Indem man Foucaults Idee der Gouvernementalität genauer betrachtet, kann man besser verstehen, wie Macht in einer Gesellschaft funktioniert und wie sie die Regierungsstrukturen beeinflusst. Das hilft dabei, die komplizierten und vielfältigen Mechanismen der Regierungsführung zu erkennen und genauer zu untersuchen.

    Während die Gouvernementalität die theoretischen Aspekte der Macht in einer Gesellschaft analysiert, betrifft Governance die konkreten Methoden und Prozesse, die diese Macht in der Praxis anwenden und verwalten. Smart Governance ist eine Fortentwicklung von Governance, die moderne Technologien und digitale Möglichkeiten nutzt, um den aktuellen Anforderungen gerecht zu werden.

    2. Corona-Krise: Governance und Biopolitik im Ausnahmezustand

    Globale Krisen stellen Regierungen oft vor enorme Herausforderungen, die eine schnelle und gut koordinierte Reaktion erfordern. In solchen Situationen wird die Bedeutung von Smart Governance besonders deutlich.

    Ein herausragendes Beispiel dafür ist die Corona-Pandemie. Die Analyse der politischen Maßnahmen im Zusammenhang mit COVID-19 bietet ein konkretes Beispiel, wie Smart Governance-Prinzipien angewendet werden. Dabei werden die theoretischen Aspekte der Gouvernementalität in die Praxis umgesetzt und validiert.

    Biopolitik verwaltet und reguliert das Leben der gesamten Bevölkerung in all seinen Aspekten. Deshalb wird Krankheit nicht mehr als ein individuelles Problem gesehen, sondern als eine Herausforderung für die Gemeinschaft. Beim Umgang mit dem Coronavirus geht es weniger um die Behandlung einzelner Personen, sondern um die Regulierung der gesamten Bevölkerung.
    [Foucault II: Der Virus und die Biopolitik/-macht]

    Dabei gilt es, Informationen und Statistiken zu erheben und zu zentralisieren, Relationen und Gefahrenabschätzungen zu definieren und daraus biopolitische Regelungen abzuleiten, so z. B. Hygienemaßnahmen, Quarantänemaßnahmen, Vorsorgeuntersuchungen, Medikation usw. Die Regelungen für den Einzelnen ergeben sich aus diesen umfassenderen Maßnahmen, die wissenschaftlich durch Experten, Wissenschaftler und Fachleute begründet werden. Sie stellen die Normen dar, an der sich jedes Individuum zu messen hat, um als integraler Bestandteil der Bevölkerung akzeptiert zu werden.
    [Über die (Un)Möglichkeiten einer demokratischen Biopolitik]

    Die biopolitische Fürsorge folgt einer Solidaritätsdoktrin. Dabei konzentriert man sich auf das Narrativ, dass die (hygienische oder biopsychosoziale) Sorge um den Anderen auch die eigene Sicherheit erhöht und das eigene Leben sowie das der gesamten Menschheit verbessert. Aus der Sicht des Individuums erscheint diese Regierungstechnologie „wie ein guter Hirte“, dessen Aufgabe es ist, „über die man wacht, Gutes zu tun“.
    [Die Covid-19-Pandemie aus biopolitischer Perspektive nach Foucault, S. 217]

    Mit diesem Hintergrundwissen betrachten wir nun die historische Fernsehansprache der ehemaligen Bundeskanzlerin Angela Merkel, die am 18. März 2020 stattfand. In dieser Ansprache wandte sich Merkel an die deutsche Bevölkerung, um über die ernste Lage der COVID-19-Pandemie zu sprechen und die Maßnahmen der Regierung zur Eindämmung des Virus vorzustellen.

    Die Rede der Bundeskanzlerin Angela Merkel kann als Lehrbuchbeispiel dienen, wie Dispositive der Macht, die Verknüpfung von Wissen und Macht sowie Biopolitik in der Praxis ineinandergreifen:

    Millionen von Ihnen können nicht zur Arbeit, Ihre Kinder können nicht zur Schule oder in die Kita, Theater und Kinos und Geschäfte sind geschlossen, und, was vielleicht das Schwerste ist: uns allen fehlen die Begegnungen, die sonst selbstverständlich sind. Natürlich ist jeder von uns in solch einer Situation voller Fragen und voller Sorgen, wie es weitergeht.

    Ich wende mich heute auf diesem ungewöhnlichen Weg an Sie, weil ich Ihnen sagen will, was mich als Bundeskanzlerin und alle meine Kollegen in der Bundesregierung in dieser Situation leitet. Das gehört zu einer offenen Demokratie: dass wir die politischen Entscheidungen auch transparent machen und erläutern. Dass wir unser Handeln möglichst gut begründen und kommunizieren, damit es nachvollziehbar wird.

    Es ist ernst. Nehmen Sie es auch ernst. Seit der Deutschen Einheit, nein, seit dem Zweiten Weltkrieg gab es keine Herausforderung an unser Land mehr, bei der es so sehr auf unser gemeinsames solidarisches Handeln ankommt.

    Ich möchte Ihnen erklären, wo wir aktuell stehen in der Epidemie, was die Bundesregierung und die staatlichen Ebenen tun, um alle in unserer Gemeinschaft zu schützen und den ökonomischen, sozialen, kulturellen Schaden zu begrenzen. Aber ich möchte Ihnen auch vermitteln, warum es Sie dafür braucht, und was jeder und jede Einzelne dazu beitragen kann.

    Zur Epidemie – und alles was ich Ihnen dazu sage, kommt aus den ständigen Beratungen der Bundesregierung mit den Experten des Robert-Koch-Instituts und anderen Wissenschaftlern und Virologen: Es wird weltweit unter Hochdruck geforscht, aber noch gibt es weder eine Therapie gegen das Coronavirus noch einen Impfstoff.

    Aber alles, was Menschen gefährden könnte, alles, was dem Einzelnen, aber auch der Gemeinschaft schaden könnte, das müssen wir jetzt reduzieren.

    Jetzt zu dem, was mir heute das Dringendste ist: Alle staatlichen Maßnahmen gingen ins Leere, wenn wir nicht das wirksamste Mittel gegen die zu schnelle Ausbreitung des Virus einsetzen würden: Und das sind wir selbst. So wie unterschiedslos jeder von uns von dem Virus betroffen sein kann, so muss jetzt auch jede und jeder helfen. Zuallererst, indem wir ernst nehmen, worum es heute geht. Nicht in Panik verfallen, aber auch nicht einen Moment denken, auf ihn oder sie komme es doch nicht wirklich an. Niemand ist verzichtbar. Alle zählen, es braucht unser aller Anstrengung.

    Der Rat der Virologen ist ja eindeutig: Kein Handschlag mehr, gründlich und oft die Hände waschen, mindestens eineinhalb Meter Abstand zum Nächsten und am besten kaum noch Kontakte zu den ganz Alten, weil sie eben besonders gefährdet sind.

    Ich weiß, wie schwer das ist, was da von uns verlangt wird. Wir möchten, gerade in Zeiten der Not, einander nah sein. Wir kennen Zuwendung als körperliche Nähe oder Berührung. Doch im Augenblick ist leider das Gegenteil richtig.  Und das müssen wirklich alle begreifen: Im Moment ist nur Abstand Ausdruck von Fürsorge.

    Wer unnötige Begegnungen vermeidet, hilft allen, die sich in den Krankenhäusern um täglich mehr Fälle kümmern müssen. So retten wir Leben. Das wird für viele schwer, und auch darauf wird es ankommen: niemanden allein zu lassen, sich um die zu kümmern, die Zuspruch und Zuversicht brauchen. Wir werden als Familien und als Gesellschaft andere Formen finden, einander beizustehen.

    Dies ist eine dynamische Situation, und wir werden in ihr lernfähig bleiben, um jederzeit umdenken und mit anderen Instrumenten reagieren zu können. Auch das werden wir dann erklären.

    Deswegen bitte ich Sie: Glauben Sie keinen Gerüchten, sondern nur den offiziellen Mitteilungen, die wir immer auch in viele Sprachen übersetzen lassen.

    Wir sind eine Demokratie. Wir leben nicht von Zwang, sondern von geteiltem Wissen und Mitwirkung. Dies ist eine historische Aufgabe und sie ist nur gemeinsam zu bewältigen.“ „Das heißt: Es wird nicht nur, aber auch, davon abhängen, wie diszipliniert jeder und jede die Regeln befolgt und umsetzt.

    Der Aufruf, den wissenschaftlich begründeten offiziellen Mitteilungen zu folgen und nicht auf Gerüchte zu hören, zeigt, dass man bei der Umsetzung der Solidaritätsdoktrin auch mit Widerstand rechnet. Merkels Rede verdeutlicht, wie die Regierung versucht, potenziellen Widerstand und die Verbreitung von Desinformation zu bekämpfen, indem sie die Kontrolle über den Informationsfluss übernimmt und das Vertrauen in offizielle Kanäle stärkt.

    Die letzten zwei zitierten Absätze aktivieren die sozialen Kontrollmechanismen zur Ausübung von Disziplinarmacht in demokratischen Gesellschaften. Die in der Rede neu definierte soziale Norm, kombiniert mit moralischen Erwartungen und dem Druck durch Gleichaltrige (Peer-Druck), soll das Verhalten der Menschen beeinflussen und regulieren.

    In den darauffolgenden Monaten werden die sogenannten AHA+A-Regeln nahtlos durch die 3G-Regeln ergänzt.

    AHA+A
    3-G-Regelung

    Als Ergebnis erhält man eine „Hierarchie“ von Individuen mit unterschiedlichen Fähigkeiten. Der eine entspricht einer bestimmten Norm, der andere weicht davon ab. Den einen kann man bessern, den anderen nicht. Den einen kann man mit einem bestimmten Mittel bessern, beim anderen muss man andere Mittel einsetzen. Diese Einordnung der Individuen nach dem Grad ihrer Normalität ist eines der großen Machtinstrumente der heutigen Gesellschaft.
    [Die Covid-19-Pandemie aus biopolitischer Perspektive nach Foucault, S. 218]

    Daraus ergeben sich zwei komplementäre biopolitische Maßnahmen:
    a) die Förderung derjenigen, die als förderungswürdig gelten,
    b) die Ausgrenzung derjenigen, die als nicht förderungswürdig angesehen werden.
    [Die Covid-19-Pandemie aus biopolitischer Perspektive nach Foucault, S. 223]

    Während einer Extremsituation wie einer Pandemie treten zwei wesentliche biopolitische Regierungstechniken in den Vordergrund:

    a) „biopolitische Fürsorge im Rahmen einer Solidaritätsdoktrin
    b) „Staatsrassismus

    Der „Staatsrassismus“ konzentriert sich auf die Beseitigung biologischer Gefahren, um die Bevölkerung zu stärken. Die implizite Logik besagt: Je mehr Individuen, die nicht der festgelegten Norm (in diesem Fall, geimpft zu sein) entsprechen, eliminiert werden, desto weniger Degenerierte gibt es in der Bevölkerung. Dadurch wird die gesamte Menschheit besser, stärker und widerstandsfähiger.
    [Die Covid-19-Pandemie aus biopolitischer Perspektive nach Foucault, S. 224]

    Vor diesem Hintergrund erscheinen die unten aufgeführten Schlagzeilen in einem anderen Licht.

    Corona-Impfung ist eine Christen-Pflicht
    Manfred Lütz, Arzt und Theologe

    Der einfachste Weg ist, sich impfen zu lassen. Auch der gesündeste. Ich möchte schon alleine deshalb keine Impfpassfälscher als Mitarbeiter haben, weil ich nicht so gerne Spinner beschäftige. Wer weiß, an welchen Blödsinn die sonst noch alles glauben.
    Jürgen Kaube, Herausgeber FAZ, Journalist

    Impfgegner sind Staatsfeinde
    Udo Knapp, Politologe und Redakteur taz

    Coronaleugnerinnen und Coronaleugner müssten konsequent dem rechtsextremistischen Spektrum zugeordnet werden
    Georg Maier (SPD), Thüringens Innenminister

    Kassenärzte fordern Ausschluss Ungeimpfter von Ärzten und Psychotherapie
    Kassenärztliche Vereinigung Baden-Württemberg

    Der Zutritt in den Laden [Lebensmittelausgabe für Bedürftige] ist nur für nachweislich geimpfte oder genesene Personen (2G) erlaubt
    Tante Emma Rodgau e.V., Lebensmittelausgabe für Bedürftige

    Es handelt sich nicht um zufällige und voneinander unabhängige Ereignisse, die auf inkompetente oder korrupte Individuen zurückzuführen sind. Vielmehr folgt dieses Szenario einem systematischen Plan, der wie nach einem Lehrbuch abläuft.

    Unter diesen Bedingungen wird Moral gewissermaßen rechtlich verankert und folglich vom Staat übernommen. Das Recht verliert dabei seine rationale Grundlage und wird stattdessen auf Werthaltungen begründet. Man urteilt im Namen einer „Solidarität“.

    In seinem Werk Geburt schreibt Foucault: Mit einer Hand muss die Freiheit hergestellt werden, aber dieselbe Handlung impliziert, dass man mit der Anderen Einschränkungen, Kontrollen, Zwänge, auf Drohungen gestützte Verpflichtungen usw. einführt“.
    [Die Covid-19-Pandemie aus biopolitischer Perspektive nach Foucault, S. 231-232]

    Die Governance im 20. und 21. Jahrhundert agiert zwischen zwei gegensätzlichen Polen: Auf der einen Seite stehen die dominierenden Machttechniken des Vorsorgestaates, auf der anderen Seite die passiven Machttechniken des Liberalismus. „Markt und Plan, unsichtbare oder sichtbare Hand, zentrale Steuerung oder Selbstorganisation“ – zwischen diesen Polen lassen sich die Versuche der Governance verorten, das menschliche Leben ökonomisch zu regieren.

    In der Vor-Corona-Zeit lenkte die Governance die liberale westliche Gesellschaft weitestgehend diskret und mit „unsichtbarer“ Hand. Die Regulierungsmechanismen (Normen) waren vorwiegend auf Selbstorganisation ausgerichtet. Der größte Teil der Bevölkerung galt im Sinne der Governance als „normal“ und „förderungswürdig“. Man fühlte sich wohl in der „Wohlfühlgesellschaft“ und genoss die freiheitlich-demokratische Grundordnung.

    Es sind dieselben Strukturen, Prozesse und Mechanismen, die die weltweite Pandemie ausriefen und in diesem Zusammenhang dominierende Machttechniken mehr oder weniger über Nacht zum Einsatz brachten. Die Regulierungsmechanismen (Normen) wurden um 180 Grad gedreht, und der Vorsorgestaat rückte in den Vordergrund. So wurde aus der Demokratie über Nacht eine „Demokratur“. Die Mehrheit der Bevölkerung passte sich den neuen Regulierungsnormen (The New Normal) an und galt nach wie vor als „normal“ und „förderungswürdig“.

    Jedoch hatte eine nicht zu vernachlässigende Minderheit aus unterschiedlichen Gründen zunehmend Probleme, die neuen Normen zu befolgen, und wurde im Sinne der Governance als „nicht förderungswürdig“ betrachtet. Diese Gruppe der Bevölkerung erfuhr gesellschaftliche Ausgrenzung und begann langsam, die Situation zu hinterfragen. Der Widerstand formierte sich. 

    Mit dieser biopolitischen Denklogik wird verständlich, wie Politiker, die jahrzehntelang überzeugte Verfechter der Demokratie waren, plötzlich zu fanatischen Unterstützern freiheitsraubender Maßnahmen „ohne rote Linien“ werden konnten. Dies erklärt auch die tiefe Spaltung in der Gesellschaft, die sogar Familien, Freundes- und Bekanntenkreise betrifft.

    Nachdem sich die Regulierungsnormen im Verlauf des Jahres 2023 im Zusammenhang mit der Pandemie verschoben hatten, wurden diejenigen, die zuvor ausgeschlossen waren, wieder als „normal“ eingestuft. Biopolitisch gesehen wechselt diese Gruppe vom „Ausgrenzungsmodus“ zum „Inklusionsmodus“. Es fühlt sich an, als würden verlorene Freiheiten und Rechte zurückkehren. Man hat das Gefühl, dass sich der Widerstand gelohnt hat und man seinen Platz in der Gesellschaft würdevoll zurückgewinnen kann. Um sicherzustellen, dass sich eine ähnliche Situation nie wiederholt, beginnt man, die Corona-Pandemie aufzuarbeiten, um die Verantwortlichen zur Rechenschaft zu ziehen.

    Dabei verdienen die so genannten RKI-Files besondere Aufmerksamkeit. Der Begriff „RKI-Files“ bezieht sich auf eine Sammlung von rund 2000 Seiten interner Protokolle des Corona-Krisenstabs des Robert Koch-Instituts (RKI), die durch eine gerichtliche Anordnung veröffentlicht wurden. Diese Dokumente enthalten detaillierte Aufzeichnungen über die Sitzungen und Entscheidungen, die während der Corona-Pandemie getroffen wurden. Sie helfen, die Maßnahmen und Reaktionen während der Pandemie zu verstehen und bieten eine Grundlage für die Aufarbeitung und Analyse der getroffenen Entscheidungen und deren Auswirkungen auf die Gesellschaft.

    Einerseits illustrieren diese Akten die Verknüpfung von Wissen und Macht als essentieller Aspekt der Gouvernementalität und zeigen, wie wissenschaftliche Erkenntnisse und politische Entscheidungen miteinander verflochten waren. Andererseits hat die Veröffentlichung dieser Protokolle für Aufsehen gesorgt, da sie deutlich zeigen, dass viele der Corona-Maßnahmen politisch und nicht wissenschaftlich motiviert waren.

    Zu den besonders kritisierten Maßnahmen gehören die Lockdowns und die Maskenpflicht. Es wurde aufgedeckt, dass das Robert-Koch-Institut (RKI) bereits wusste, dass Lockdowns und Maskenpflicht mehr Schaden als Nutzen bringen und es keine ausreichende wissenschaftliche Evidenz für eine generelle Maskenpflicht gab​. Es wurde anerkannt, dass die Wirksamkeit dieser Maßnahmen überschätzt oder falsch dargestellt wurde. Die Dokumente legen nahe, dass Entscheidungen von politischen Agenden beeinflusst wurden anstatt rein wissenschaftlichen Bewertungen zu folgen. [What do the RKI-Files really show?]

    Die Unterlagen zeigen, dass bereits im Februar 2021 Gesundheitsbehörden wussten, dass Impfungen im Gegensatz zu öffentlichen Aussagen zu dieser Zeit keine Infektionen verhindern. Der vorherrschende Narrativ legte nahe, dass Impfungen vor schwerer Erkrankung und Übertragung schützen würden, was sich später als fehlerhafte Annahme herausstellte. Trotz Kenntnis dieser Einschränkungen setzte die politische Erzählung weiterhin auf eine breite Impfkampagne mit Versprechungen umfassenden Schutzes.

    Es gab weiterhin Bedenken hinsichtlich der Nebenwirkungen und langfristigen Risiken der Impfstoffe, die nicht vollständig an die Öffentlichkeit kommuniziert wurden. Die Unterlagen weisen darauf hin, dass die potenziellen Risiken heruntergespielt wurden und der Schwerpunkt auf der Impfung als Hauptinstrument zur Bewältigung der Pandemie lag, ohne ausreichende Transparenz über mögliche negative Auswirkungen.

    Aus bisherigen Erfahrungen zu lernen und zukünftige Maßnahmen zu optimieren, ist ein zentrales Prinzip der Governance. Es zeigt die Bereitschaft, auf Kritik einzugehen, Prozesse zu hinterfragen und anzupassen. Dies stärkt nicht nur die Legitimität und das Vertrauen in staatliche Institutionen, sondern erhöht auch die Widerstandsfähigkeit der Gesellschaft gegenüber künftigen Krisen. Dies steht im Einklang mit Michel Foucaults Auffassung, dass Macht und Widerstand untrennbar miteinander verbunden sind.

    Die Entscheidung der Gerichte, die Veröffentlichung der ungeschwärzten RKI-Akten zuzulassen, kann als Schritt zu mehr Transparenz gesehen werden, möglicherweise beeinflusst durch öffentlichen Druck und die Notwendigkeit, Skepsis und Misstrauen zu begegnen. Falls jedoch keine politischen, personellen und rechtlichen Konsequenzen folgen, könnte dies als Versuch gewertet werden, die bestehenden Machtverhältnisse zu stabilisieren. Durch Transparenz ohne echte Veränderungen wird der Widerstand kanalisiert und die bestehende Ordnung legitimiert.

    Gleichzeitig könnte dies als Strategie betrachtet werden, den Widerstand zu neutralisieren, indem man ihn scheinbar ernst nimmt, jedoch seine Wirksamkeit untergräbt. Dies kann zu einer Resignation in bestimmten Bevölkerungsgruppen führen, da der Eindruck entsteht, dass Widerstand zwar zur Kenntnis genommen, aber nicht wirklich berücksichtigt wird.

    Bisherige Reaktionen von Medien wie dem ZDF, der Tagesschau oder Die WELT deuten darauf hin, dass primär versucht wird, Kritik und Widerstand zu kanalisieren und zu kontrollieren, indem Transparenz signalisiert wird, ohne jedoch substantielle Konsequenzen folgen zu lassen. Diese Vorgehensweise könnte als Taktik gesehen werden, das Vertrauen in die Governance zu bewahren, während die tatsächlichen Machtstrukturen unangetastet bleiben.

    Inwieweit der Umgang der Governance-Strukturen mit „Widerstand und Gegenmacht“ zu einer Änderung des Status Quo führen wird, wird die nahe Zukunft zeigen.

    Fazit:

    Die Analyse der Ereignisse während der Corona-Pandemie stellt einen Governance-Crashkurs dar, der alle Facetten der Gouvernementalität umfasst – von der Verbindung von Wissen und Macht über Macht-Dispositive und Biopolitik bis hin zur Disziplinarmacht und dem Umgang mit Widerstand und Gegenmacht.

    Die Pandemie hat auch verdeutlicht, wie entscheidend und vorteilhaft digitale Technologien für effektive Regierungsführung in Krisensituationen sind. Sie fungierte als Katalysator, indem sie die Einführung und Anwendung von Smart-Governance-Praktiken beschleunigte. Aus diesem Grund kann die Pandemie als Schlüsselmoment verstanden werden, der die Entwicklung und Umsetzung von Smart Governance weltweit vorangetrieben hat.

    3. One-Health-Ansatz – Prävention durch kontinuierliche Governance

    Während die Debatten rund um die RKI-Files noch andauern, bahnt sich langsam das nächste Krisenereignis aus der Rubrik „Disease X“ an – die Vogelgrippe, die einen zoonotischen Hintergrund hat und von der WHO als Krankheit mit „Pandemiepotential“ eingestuft wird.

    Und dies bringt den sogenannten One-Health-Ansatz der WHO auf die Tagesordnung.

    Der WHO One-Health-Ansatz, der die Gesundheit von Menschen, Tieren und Umwelt als untrennbar miteinander verbunden betrachtet, hat weitreichende Auswirkungen auf die Governance. Dieser Ansatz verändert die Art und Weise, wie Regierungen, Organisationen und Institutionen Gesundheitsfragen angehen und darauf reagieren.

    One-Health

    Im Vergleich zu den Maßnahmen zur Bekämpfung der Corona-Pandemie ist der One-Health-Ansatz viel breiter ausgelegt. Er setzt intersektorale Zusammenarbeit sowohl auf nationaler als auch internationaler Ebene voraus und erfordert koordinierte Governance-Strukturen aus den Bereichen Gesundheitswesen, Veterinärwesen, Landwirtschaft, Nahrungsmittelproduktion, Umwelt u.a., die es ermöglichen, dass verschiedene Behörden und Organisationen effektiv zusammenarbeiten. Durch die Globalisierung der Governance-Strukturen muss sichergestellt werden, dass internationale Richtlinien und Standards harmonisiert und effektiv umgesetzt werden.

    Die Wissensbasis für die Definition von politischen Entscheidungen und Maßnahmen wird wesentlich komplexer und umfasst die Integration von Wissen und Methoden aus verschiedenen wissenschaftlichen Disziplinen (Epidemiologie, Tiermedizin, Agrar-, Lebensmittel-, Ernährungs-, Sozialwissenschaften u.a.).

    Die Integration von Umweltgesundheit in Gesundheitsstrategien erfordert vonder Governance, dass die ökologische Nachhaltigkeit zu einem zentralen Bestandteil der Gesundheitsstrategien wird.

    Der Fokus liegt auf Prävention statt Reaktion. Dies verändert die Governance, indem Ressourcen und Strategien stärker auf Prävention und Frühwarnsysteme ausgerichtet werden. Dies beinhaltet die Überwachung von Tier- und Umweltgesundheit sowie die Implementierung von Frühwarnsystemen in diesen Sektoren, um potenzielle Gesundheitsrisiken für Menschen frühzeitig zu identifizieren.

    Für die Umsetzung des One-Health-Ansatzes sind die Anpassung und Entwicklung neuer regulatorischer Rahmenbedingungen erforderlich, die die Schnittstellen zwischen menschlicher, tierischer und ökologischer Gesundheit berücksichtigen. Regierungen müssen neue Gesetze und Vorschriften erlassen, die diese integrativen Gesundheitsansätze unterstützen und sicherstellen, dass alle relevanten Sektoren effektiv zusammenarbeiten.

    Der One-Health-Ansatz wird stärker auf Smart Governance setzen als die Corona-Politik. Dies liegt daran, dass er eine umfassende, präventive und intersektorale Herangehensweise benötigt. Schlüsselkomponenten sind die kontinuierliche Sammlung und Analyse von Daten, die Integration verschiedener Governance-Strukturen sowie der Einsatz moderner Technologien zur Überwachung und Prävention. Diese Aspekte sind im One-Health-Ansatz besonders wichtig, da er von einer reaktiven Krisenreaktion zu einem stärker integrierten und präventiven Governance-Modell übergeht.

    Der One-Health-Ansatz bietet dadurch eine erweiterte Perspektive und umfassende Werkzeuge für politische Entscheidungsträger, um auf Gesundheitskrisen (Mensch/Tier/Umwelt) zu reagieren und gegebenenfalls Notstandsmaßnahmen zu ergreifen. Durch die Betonung präventiver Maßnahmen, koordinierter Reaktionen und internationaler Zusammenarbeit trägt der Ansatz dazu bei, die Resilienz gegenüber Gesundheitsrisiken zu stärken und die Auswirkungen von Krisen auf die Gesellschaft zu minimieren.

    Fazit:

    Gefährliche Epidemien oder Pandemien besitzen folglich das Potential“, die biopolitische Transformation der Gesellschaft und „die von Foucault beschriebene Gouvernementalisierung des modernen Staates zu intensivieren, indem Maßnahmen gesetzt werden, die über infektionsepidemiologisch indizierte Schutzmaßnahmen mit dem Ziel der Eindämmung der epidemischen Krankheitsverbreitung klar hinausgehen“.
    [Die Covid-19-Pandemie aus biopolitischer Perspektive nach Foucault, S. 233]

    In seinen Arbeiten betont Foucault, dass „die Machttransformationen, die sich z. B. in Extremsituationen“ wie Seuchen oder Pandemien „entwickeln und verfestigten, nicht als Ausnahmefälle“ zu betrachten sind, „sondern als die Geburten und In-Kraft-Setzungen neuer allgemeingültiger und auch nach der Seuche weiter geltender Verhältnisse“. Es geht um das Entstehen und Verfestigen der neuen Machtparadigma und dessen Normalisierung.
    [Foucault: In der Seuche die Disziplinarmacht]

    Der One-Health-Ansatz kann als eine Evolution des Krisenmanagements gesehen werden, die durch ihre umfassende, präventive und technologiegestützte Natur die Grundlage für die Legitimierung und den dauerhaften Einsatz von Smart Governance bildet.

    4. Die technologischen Eckpfeiler der Smart Governance

    Auf der Suche nach einer einfachen Erklärung der grundlegenden Instrumente der Smart Governance stoßen wir unweigerlich auf eine Äußerung von Nandan Nilekani, CEO von Infosys Technologies:

    Digital Public Infrastructure: Stacking Up the Benefits

    Was sind die Werkzeuge der neuen Welt? Jeder sollte einen digitalen Ausweis haben; jeder sollte ein Bankkonto haben; jeder sollte ein Smartphone haben. Dann kann man alles machen. Alles andere baut darauf auf.
    Nandan Nilekani

    Es lohnt sich, die einzelnen Elemente seiner Aussage genauer zu betrachten.

    4.1. Die Europäische Digitale ID

    Im Februar 2024 hat das Europäische Parlament mit großer Mehrheit die eIDAS-Reform (electronic IDentification, Authentication, and trust Services) verabschiedet. Bis Herbst 2026 müssen alle EU-Mitgliedstaaten ihren Bürgern eine „European Digital Identity Wallet“ (ID-Wallet) anbieten. Diese Wallet ermöglicht es, sich sowohl online als auch offline in fast allen Lebensbereichen auszuweisen. Die EU-Kommission strebt an, dass bis 2030 mindestens 80 Prozent der EU-Bürger eine digitale Identität nutzen.

    Ein Werbefilm des Europäischen Parlaments erklärt, dass die EU ID-Wallet wichtige Informationen wie amtliche Ausweise, Dokumente und Bankdaten sicher an einem Ort speichert. Die digitale Brieftasche der EU soll den Zugang zu öffentlichen und privaten Dienstleistungen in ganz Europa einfacher und effizienter machen. Die Nutzung der Wallet ist freiwillig und kostenfrei. Bürger, die sich gegen die digitale Brieftasche entscheiden, sollen keine Nachteile haben. Nutzer der Wallet können genau bestimmen, welche Daten an „vertrauenswürdige Parteien“ weitergegeben werden. Diese Parteien, wie Unternehmen oder öffentliche Einrichtungen, müssen sich in den EU-Mitgliedstaaten registrieren und angeben, welche Daten sie zu welchem Zweck anfordern.

    Nach dem Motto „Traue keinem Politiker“ ist es sinnvoll, sich über die konkrete technologische Umsetzung der digitalen Identität zu informieren. Dabei stößt man schnell auf den französischen High-Tech-Konzern THALES, der weltweit eine Schlüsselrolle bei vielen staatlichen Digitalprojekten auf Regierungsebene spielt.

    Die THALES Group mit Sitz in Paris ist ein börsennotierter Konzern, der sich auf folgende Geschäftsbereiche spezialisiert hat: Rüstungsindustrie, Luft- und Raumfahrttechnik sowie Digitale Identität und Sicherheit. Im Bereich Digitale Identität und Sicherheit verfügt THALES über Kernkompetenzen in den Technologiesegmenten Biometrie, Datensicherheit und Verschlüsselung.

    Bis 2025 laufen mehrere große Pilotprojekte, um die EU-Brieftasche für digitale Identität zu testen und ihre sichere und reibungslose Einführung zu gewährleisten. An diesen Projekten sind etwa 360 Einrichtungen beteiligt, darunter private Unternehmen und Behörden aus 26 Mitgliedstaaten sowie Norwegen, Island und der Ukraine. Jedes Pilotprojekt ist als Konsortium organisiert und vereint Fachwissen aus dem öffentlichen und privaten Sektor innerhalb der EU. Die Pilotprojekte testen die EU-Brieftasche in verschiedenen Alltagsszenarien, denen Europäer täglich begegnen. Sie sammeln auch Feedback zur Referenzimplementierung der Wallet. Die gewonnenen Erkenntnisse werden genutzt, um die Sicherheit, Interoperabilität und das Gesamtdesign der EU-Brieftasche für digitale Identität zu verbessern.

    Unter dem Link eIDAS 2: the countdown to a single European Digital ID Wallet has begun (eIDAS 2: Der Countdown für eine einheitliche europäische digitale ID-Geldbörse hat begonnen) lesen wir:

    „Hier bei Thales sind wir ideal positioniert, um die Hauptakteure zu unterstützen, die für die Verwirklichung der EUDI-Wallet verantwortlich sind. Als weltweit führendes Unternehmen für vertrauenswürdige digitale Identitätssysteme haben unsere Teams seit der ersten Version von eIDAS im Jahr 2014 mit Regierungen, öffentlichen Diensten und Unternehmen zusammengearbeitet.
    Daher verfügen wir über eine Reihe von bewährten, eIDAS-zertifizierten Lösungen. Jetzt arbeiten wir mit Dutzenden von Kunden in ganz Europa zusammen und helfen ihnen bei der Vorbereitung auf eIDAS 2.
    Mit unserer Technologie und unserem Fachwissen unterstützen wir die EU und ihre Mitgliedstaaten, beschleunigen die Einführung und Annahme der Brieftasche und tragen dazu bei, Millionen von EU-Bürgern mehr Komfort und Sicherheit zu bieten.“

    In diesem Werbevideo wird kurz und prägnant erklärt, wie die praktische Funktionsweise der eIDAS-zertifizierten „Digital ID-Wallet“-Systemlösung von THALES aussieht.

    Was will uns diese Werbung subtil übermitteln?

    Wir lernen die junge attraktive Frau mit dem Namen Lucy kennen. Der Name Lucy wird oft mit dem gleichnamigen Action- und Science-Fiction-Film aus dem Jahr 2014 in Verbindung gebracht. In dieser erfundenen Geschichte erhöht die 25-jährige Studentin Lucy ihre Gehirnleistung durch eine hohe Dosis einer Droge drastisch und beginnt, einen immer größeren Teil ihrer „Gehirnkapazität“ zu nutzen. Als sie schließlich 100 % erreicht, verschmilzt ihr Körper mit sämtlichen Geräten eines wissenschaftlichen Labors zu einem fortschrittlichen Supercomputer. Durch eine Zeitreise gelangt Lucy bis zu den Anfängen des Universums und trifft dabei auf ihre Namensvetterin Lucy, die vor etwa 3,2 Millionen Jahren lebte und in der menschlichen Evolution oft als Bindeglied zwischen Affe und Mensch betrachtet wird.

    Die Wahl dieses Namens soll die Zuschauer ansprechen, indem sie die Vorstellung erweiterter Fähigkeiten sowie transformative und bahnbrechende Eigenschaften hervorruft. So wird die Einzigartigkeit und der innovative Charakter des beworbenen Produkts betont, um ihre Aufmerksamkeit zu gewinnen.

    Lucy ist außerdem Psychologiestudentin. Psychologie, auch als Seelenkunde bekannt, ist eine empirische Wissenschaft, die sich damit beschäftigt, menschliches Erleben und Verhalten zu beschreiben und zu erklären. Psychologen untersuchen das Erleben, Verhalten und Bewusstsein von Menschen. Dadurch möchte man dem Zuschauer nahelegen, dass diese „evolutionäre“ Technologie vertrauenswürdig ist.

    Die Digitale Brieftasche übermittelt gleich zu Beginn ein klares Statement:

    Tatsächlich bin ich eine praktische Möglichkeit, ihre Identität sowohl online als auch Angesicht zu Angesicht nachzuweisen als auch zu schützen. Schauen wir uns genauer an, was ich tun kann. Ich kann Regierungen helfen, jetzt besser mit den Bürgern zu kommunizieren. Gerade jetzt erinnere ich Lucy an den Termin, den sie für ihre obligatorische Impfung vereinbaren muss.

    Das Individuum wird schnell und persönlich mit einer klassischen biopolitischen Maßnahme konfrontiert und diskret daran erinnert, sich an die vorgegebenen Normen zu halten. Die Aufgabe eines pflichtbewussten Bürgers ist es, diese Normen bestmöglich zu befolgen, abnormales Verhalten zu korrigieren und idealerweise ganz zu vermeiden.

    Mit anderen Worten, das Digitale ID-Wallet zeigt, dass es ein effizientes und kostengünstiges Werkzeug für die Regierung ist, um uns zeitnah über Regulierungsmechanismen (Normen) zu informieren und uns an deren Einhaltung zu erinnern. Ein Beispiel dafür ist die Pflichtimpfung. Das setzt natürlich voraus, dass die Regierung genau über unsere elektronischen Patientenakten informiert ist. Dies wird demnächst durch das sogenannte Gesundheits-Digitalagentur-Gesetz (GDAG) sichergestellt.

    Der deutsche Gesundheitsminister Karl Lauterbach fasst den Gesetzentwurf in seinem X-Beitrag wie folgt zusammen:

    Der Werbefilm von THALES veranschaulichte bereits im Jahr 2020 den Zusammenhang zwischen dem Digitalen ID-Wallet und der elektronischen Patientenakte beim Arztbesuch. Dies scheint wegweisend für einige Regierungsmaßnahmen im Jahr 2024 zu sein.

    Die digitale Brieftasche steuert auch die Kommunikation mit allen staatlichen Behörden und ermöglicht den Zugang zu Finanz- und Mobilitätsdienstleistungen. Der Digital ID-Wallet wird nicht nur für den Zugang zum Staatsexamen genutzt, sondern auch für den Zutritt zur Kneipe.

    Ja, ich bin Lucys bester Begleiter. Ich beschütze Ihre Identität und amtliche Legitimation, wo immer sie ist. Ich garantiere den sicheren Zugang zu öffentlichen und privaten Dienstleistungen. Ich erlaube den richtigen Zugang zu den richtigen Daten an die richtige Person. Auch Regierungen vertrauen mir bei der Unterstützung der digitalen Transformation deren Länder.

    Für den Zuschauer erscheint das Digitale ID-Wallet als die digitale Form des „’guten Hirten‘, deren Aufgabe es ist, ‚über die man wacht, Gutes zu tun’“.

    In Kombination mit der Europäischen Digitalen Identität verwandelt sich das Smartphone in ein spezifisches, technisches Instrument, um Regierungstechniken zur Überwachung und Lenkung sowohl von Kollektiven als auch von einzelnen Individuen umzusetzen. Diese Umsetzung hat zwei Dimensionen:

    a) politische Dimension

    Definierte Sicherheits- und Vorkehrungsregeln wirken dabei als Kontrollmechanismus der Bevölkerung, um Gefahren zu erkennen und so weitreichend wie möglich auf die Handlungsweisen der Bevölkerung und freien (kollektiven) Subjekte zu wirken (z. B. wird neben Pandemien der Klimawandel zunehmend als Gefahrensituation definiert).

    b) unternehmerisch-wirtschaftliche Dimension

    Das Smartphone ist zu einem alltäglichen Begleiter geworden und generiert dabei unzählige Daten. Unternehmen nutzen diese Daten, um Aspekte wie Kaufverhalten und Lebensgewohnheiten zu prognostizieren. Sie setzen umfassende Maßnahmen ein, um sowohl auf das Leben der Bevölkerung als auch auf das von Subjekten Einfluss zu nehmen.

    Die politische Dimension der Überwachung und Kontrolle ist ’sichtbar‘. Meistens erfolgt sie auf die „harte Go-NoGo“ Weise. Bei fehlender Kompatibilität mit den vorgegebenen Normen folgen unmittelbar Konsequenzen (von Exklusion bis hin zu weitreichenderen Disziplinarmaßnahmen). Grob gesagt, durch die Verwendung des Digital ID-Wallets und dem damit verbundenen Zugriff auf seine biometrischen Merkmale ist man fälschungssicher transparent! Und wenn man den Normen, die vom ‚guten Hirten‘ festgelegt werden, nicht entspricht, könnte man – wenn es Hart-auf-Hart kommt – am Ende ganz nackt dastehen. Bei dem einen oder anderen Kritiker der Corona-Politik der Regierung werden dabei Erinnerungen wach.

    Die unternehmerisch-wirtschaftliche Dimension wirkt eher subtil, ‚unsichtbar‘ und diskret. Dadurch werden Ideale und Normen propagiert, wobei die Förderung derjenigen im Vordergrund steht, die diesen Normen entsprechen.

    THALES hat auch für diese Dimension das passende Werbevideo mit dem Titel „Vertrauenswürdige digitale Leben“ kreiert.

    Die Werbestory suggeriert grenzenlosen Spaß und Bequemlichkeit, wenn man sein Leben digitalisiert. Der Schlüssel zu diesem Paradies ist die digitale Erfassung der biometrischen Daten und deren permanente Verbindung mit dem eigenen Bewegungs- und Verhaltensprofil.

    Nach der Logik von Michel Foucault, dem Erfinder der Begriffe ‚Biopolitik‘ und ‚Gouvernementalität‘ ist das Ziel, neben dem Erhalt/Aufbau eines globalen Gleichgewichtszustandes, die Sicherheit des Ganzen und dessen Schutz vor inneren Gefahren. Da die Bevölkerung vielfältig ist, geht es zum einen darum, die Gefahren zu erkennen und zum anderen auch darum, eine Form der Regierung zu finden, die so weitreichend ist, dass sie bis in die verborgensten Winkel der Bevölkerung Wirksamkeit zeigt. Die Bevölkerung zu führen heißt, ihrer globalen Befunde zu führen; die Bevölkerung zu führen heißt, sie gleichermaßen in der Tiefe, in der Feinheit und im Detail zu führen.“ [The (in)visible ‚friend‘, Seite 31]

    Die Etablierung einer Kultur, in der das Smartphone als Erweiterung der eigenen Person genutzt wird, eröffnet völlig neue Möglichkeiten für die Organisation und Steuerung von Gesellschaften. Mit der Einführung der Europäischen Digitalen Identität kann jedes Individuum fälschungssicher identifiziert und in digitalen Systemen adressiert werden. Dadurch wird unser Verhalten auf logisch-mathematische Prozesse reduziert, die auf Grundlage der gewonnenen Daten kontinuierlich optimiert werden.

    4.2. Die technologische Selbstführung als Fundament der Smart Governance

    Es ist so bequem, unmündig zu sein. Habe ich ein Buch, das für mich Verstand hat, einen Seelsorger, der für mich Gewissen hat, einen Arzt, der für mich die Diät beurteilt, usw., so brauche ich mich ja nicht selbst zu bemühen.
    Immanuel Kant (1724 – 1804), deutscher Philosoph

    Bereits vor einem Jahrzehnt wurde vorausgesagt, dass die Ära des Personal Computings, repräsentiert durch Desktop-Computer und Laptops, in die Ära des Intimate Computings übergehen würde. Man prophezeite, dass „intime Geräte“, Umgebungen und Netzwerke noch vor 2020 sehr viel über uns wissen werden.

    Ein anschauliches Beispiel für diese Entwicklung ist der Humane AI PIN von Humane, einem Start-up-Unternehmen, das von ehemaligen Apple-Mitarbeitern gegründet wurde und mittlerweile Unterstützung von prominenten Investoren wie Sam Altman, Microsoft, Qualcomm Ventures und anderen namhaften Geldgebern erhält.

    Dieses innovative Gadget sorgte bereits wenige Tage nach dem Annoncieren in den Medien für Furore weltweit und wird bereits als der nächste „Game Changer“ nach dem Smartphone bezeichnet. 

    Die Werbung von dem Humane AI PIN wirkt auf dem ersten Blick sehr überzeugend.

    [Quelle: https://hu.ma.ne/]

    Die Ära des Intimate Computings ist inzwischen Realität geworden, wie Imran Chaudhri, CEO von Humane, in seiner visionären Rede „The Disappearing Computer – Der verschwindende Computer“ während der TED-Konferenz im April 2023 erklärte. Es lohnt sich, diese Rede in voller Länge anzusehen.

    Halten wir einige der Statements des kalifornischen Visionärs fest:

    In der Zukunft wird die Technologie sowohl ambient (Anm. an der Umgebung angepasst) als auch kontextbezogen (Anm. an der Situation angepasst) sein.  Und das bedeutet, dass Sie KI nutzen müssen, um sich selbst und Ihre Umgebung wirklich zu verstehen und so die besten Ergebnisse zu erzielen.

    Und diesen Kontext gewinnen wir durch maschinelles Lernen. Je häufiger Sie unser KI-gestütztes Gerät nutzen, desto besser können WIR Ihnen in jeder Notsituation helfen. Ihre KI wird effektiv zu einer sich ständig weiterentwickelnden, personalisierten Form des Gedächtnisses. Und WIR finden das großartig.

    Ihre KI findet in Gedankengeschwindigkeit heraus, was Sie brauchen. Ein Gefühl, das sich mit der Weiterentwicklung der Technologie ständig weiter entwickeln wird. … Wenn die KI voranschreitet, werden WIR sehen, wie sie nahezu jeden Aspekt unseres Lebens verändern wird. Auf eine Weise, die im Moment unvorstellbar erscheint. Tatsächlich geht es Sam Altman von OpenAI so wie uns – KI wird stark unterschätzt. Und ich füge hinzu, solange wir es richtig machen. WIR glauben wirklich, dass WIR gerade erst anfangen, an der Oberfläche dessen zu kratzen, was möglich ist.

    Humanere, intuitivere Interaktionen, die bildschirmlos, nahtlos und spürbar sind – das ist die Möglichkeit die Mensch-Technik-Beziehung, so wie WIR sie kennen, neu zu denken. Und das ist das Spannende. Es ist zweifellos eine große Herausforderung. Aber es ist die Welt in der WIR leben wollen. Eine Welt, in der Technologie uns nicht nur dabei hilft, wieder in die Welt zurückzukehren, sondern auch unsere Fähigkeiten dazu verbessert. Es ist in Reichweite.

    Die Zukunft der Technologie könnte fast unsichtbar sein.

    Diese Statements spiegeln die Prinzipien der neoliberalen Gouvernementalität wider, indem sie die Verantwortung des Individuums zur Nutzung und Anpassung an neue Technologien betonen, eine Kultur der ständigen Selbstverbesserung fördern und technologische Kontrolle als Mittel zur Regulierung und Optimierung des Lebens darstellen. Es werden neue Normen und Werte durch technologische Innovationen geschaffen. In dieser Welt ist die Technologie nicht nur nützlich, sondern verbessert auch die menschlichen Fähigkeiten und setzt somit neue Standards für Leistung und Effizienz.

    Die neoliberale Gouvernementalität beruht auf der digitalen Überwachung. Ohne die durch die digitale Surveillance erzeugten Daten würde das System zusammenbrechen, sie sind sein Rohstoff und seine Währung. Innovative Gadgets, wie der Humane AI PIN, präsentieren sich als effiziente Unterstützung bei den Bemühungen, das postmoderne Individuum zu disziplinieren, kontrollieren und optimieren. Sie richten ihre Aufmerksamkeit auf das Individuum mit all seinen Wünschen, Ambitionen, Potenzialen und Schwächen. Es scheint, als stünden sie dem Individuum zur Verfügung, um ihm dabei zu helfen, ein verbessertes und erfolgreicheres Selbst zu werden.

    Dabei kommen subtil die von Foucault definierten „Technologien des Selbst“ zum Einsatz. Es handelt sich dabei um Vorgänge und Praktiken, durch die es dem Einzelnen ermöglicht wird, eigenständig oder mit Unterstützung anderer eine Vielzahl von Operationen an seinem Körper, seiner Seele, seinem Denken, seinem Verhalten und seiner Existenzweise durchzuführen.

    Nach Foucault erfordern die Technologien des Selbst immer die Beziehung zum Anderen: „Man kann sich nicht mit sich selbst befassen, ohne eine Beziehung zum anderen zu haben“. [Foucault, Michel: Die Regierung des Selbst und der anderen. Vorlesung am Collège de France 1982/83. Frankfurt/Main: Suhrkamp, 2009]

    Die Funktion des Anderen besteht darin, die Wahrheit auszusprechen, insbesondere unangenehme Wahrheiten, die das Subjekt dazu anregen sollen, über sein Handeln nachzudenken und es gegebenenfalls zu modifizieren.

    Folgende Dialogsequenz vom Humane-CEO mit der künstlichen Intelligenz veranschaulicht die praktische Anwendung dieser Machttechniken.

    Imran Chaudhri Dialogue with Humane AI Pin

    Die Technologien des Selbst basieren vor allem auf der freien Entscheidung des Individuums, selbstständig an sich zu arbeiten. Durch das Bekenntnis seiner „Sünden“ oder „Fehler“ öffnet es sich für spirituelle Führung und empfängt daraufhin Anweisungen oder Lehren.

    In der Machtphilosophie von Foucault sind das unterworfene Subjekt und das autonome Selbst zwei Seiten derselben Medaille. Beim Umgang mit Wearables in der allgegenwärtigen Datenökonomie tritt das moderne, gleichgültige Subjekt hervor. Einerseits handelt es autonom, aktiv und kreativ und ist sich der Risiken und Gefahren des Data-Minings bewusst. Andererseits unterwirft es sich den Prinzipien der Datenproduktion und kümmert sich nicht um den Schutz der eigenen Privatsphäre. So führt die postmoderne, vermeintliche Sorge um sich selbst letztlich zur Selbstvernachlässigung.

    Das Subjekt, das sich durch Wearables selbst vermisst, tut dies nicht aus Feigheit, sondern aus Bequemlichkeit, Desinteresse und der falschen Annahme, „nichts zu verbergen“ zu haben. Die Unterwerfung unter das Regime der Selbstoptimierung befreit es von eigenständigem Denken und der Sorge um sich selbst. Stattdessen erhält es kontinuierlich benutzerfreundliches Feedback und vorgefertigte Interpretationen, was es von der Pflicht zur Reflexion und zum Nachdenken entbindet. Durch die Selbsterkenntnis mittels Daten wird das Subjekt zunehmend datenabhängig – es gibt zu, ohne Wearables nicht in der Lage oder nicht bereit zu sein, selbstständig über sich nachzudenken und delegiert diese Selbstarbeit an ein Medium. Dabei entfremdet es sich von sich selbst, besonders von seinem eigenen Körper, der zu einem fremden Objekt wird, übersetzt in Datenströme. Trotz des Anspruchs auf Aufklärung und vermeintlicher Emanzipation führt dies zu einem flexiblen, sich selbst vermarktenden, im Grunde jedoch gleichgültigen Subjekt, das in den subtilen Verflechtungen der digitalen Pastoralmacht gefangen ist.

    Smartphones und Wearables werden zu persönlichen Laboren und versprechen, uns alle zu ermächtigen. Diese Geräte entwickeln sich zu Beratern: Sie überwachen nicht nur unsere Aktivitäten, sondern geben auch konkrete Anweisungen und Empfehlungen. Das Design der Wearables beeinflusst unsere Entscheidungen, oft unbewusst, indem es verschiedene Optionen präsentiert. Durch gezielte Hinweise (Nudging) werden Nutzer zu bestimmten Verhaltensweisen geführt. Auf diese Weise tragen Wearables zur sozialen Kontrolle bei und vermitteln allgemeine Normen.

    So betrachtet erscheint die visionäre Rede von dem HUMANE CEO, Imran Chaudhri, in einem etwas anderen Licht.

    Der israelische Historiker, Yuval Harari, wird diesbezüglich konkreter. Bei seinem ‚pathetischen‘ Auftritt vor dem Frontiers Forum in Mai 2023 zum Thema „AI and the future of humanity“ skizziert er folgende Zukunftsvision:

    Aber je länger wir mit dem Bot sprechen, desto besser lernt er uns kennen und versteht, wie er seine Botschaften verfeinern kann, um unsere politischen oder unsere wirtschaftlichen Ansichten oder sonst etwas zu manipulieren. Wie ich sagte, kann die KI durch die Beherrschung der Sprache intime Beziehungen zu Menschen aufbauen und die Macht der Intimität nutzen, um unsere Meinungen zu beeinflussen.

    Neue KI-Werkzeuge würden einen immensen Einfluss auf menschliche Meinungen und unser Weltbild haben. Die Menschen könnten zum Beispiel dazu kommen, einen einzigen KI-Berater als das One-Stop-Orakel und als Quelle für alle Informationen, die sie benötigen, zu verwenden.

    Menschen und Unternehmen, die die neuen KI-Orakel kontrollieren, werden extrem mächtig sein.

    Technologische Selbstführung und Smart Governance verstärken sich gegenseitig, indem sie gemeinsame Prinzipien und Technologien nutzen, um sowohl individuelles Verhalten als auch die Verwaltung und Steuerung von Gesellschaften zu optimieren. Beide Konzepte fördern Effizienz, Transparenz und personalisierte Interaktionen durch datenbasierte Entscheidungsfindung und verhaltenssteuernde Techniken. Diese Symbiose ermöglicht gezielte Veränderungen auf individueller und gesellschaftlicher Ebene.

    Smart Governance fördert die Dezentralisierung und Privatisierung öffentlicher Dienstleistungen. Technologische Lösungen, die eine effizientere Verwaltung öffentlicher Dienstleistungen ermöglichen, werden häufig von privaten Akteuren bereitgestellt. Dies geschieht im Rahmen von öffentlich-privaten Partnerschaften oder durch die direkte Auslagerung von Dienstleistungen an private Unternehmen.

    4.3. Digital Twins als Grundlage für Smart Governance-Strategien

    Was würden Sie tun, wenn Sie eine digitale Kopie von sich selbst hätten? Einen digitalen Zwilling, der genau wie Sie ist und in einer exakten digitalen Darstellung Ihres Zuhauses, Arbeitsplatzes oder Ihrer Stadt lebt? Noch besser: Was wäre, wenn dieser digitale Zwilling keine Schmerzen oder Verletzungen empfinden könnte? Die Möglichkeiten wären unglaublich. Sie könnten Entscheidungen treffen, ohne Angst vor den Konsequenzen zu haben, und mit viel mehr Sicherheit über das Ergebnis.

    Die Unternehmensberatung McKinsey beschreibt den Begriff „Digitaler Zwilling“ folgendermaßen:

    Ein digitaler Zwilling ist eine digitale Darstellung eines physischen Objekts, einer Person oder eines Prozesses, kontextualisiert in einer digitalen Version seiner Umgebung. Digitale Zwillinge können einem Unternehmen dabei helfen, reale Situationen und deren Ergebnisse zu simulieren, um letztlich bessere Entscheidungen treffen zu können.

    Ist es bereits möglich, eine virtuelle Kopie einer ganzen Stadt zu erstellen? Ja, das ist bereits machbar. Das Projekt Siemensstadt Square ist nur ein Beispiel dafür.

    Digitale Zwillinge fungieren als zentrale Plattform zur Integration und Koordination verschiedener Smart-Technologien. Sie bündeln Daten aus IoT-Geräten, Sensoren und anderen digitalen Systemen, um ein umfassendes Bild der städtischen Umgebung zu erstellen. Dadurch können Planer verschiedene Szenarien testen und deren Ergebnisse messen, ohne die Stadt und ihre Bewohner zu beeinträchtigen. Funktionierende Lösungen können anschließend im physischen Raum umgesetzt werden.

    Digitale Zwillinge sind ein unverzichtbares Werkzeug für Smart Governance, da sie zahlreiche Vorteile bieten und die Effizienz sowie Effektivität der Verwaltung signifikant verbessern können. Diese Technologie ermöglicht eine präzise Echtzeitdatenanalyse und die Simulation verschiedener Szenarien. Dadurch können potenzielle Probleme frühzeitig erkannt und geeignete Maßnahmen geplant werden, noch bevor sie sich in der realen Welt manifestieren. Die Einsatzmöglichkeiten sind vielfältig: von der Überwachung und Wartung von Infrastrukturen über die Analyse von Umweltdaten und sozialen Dynamiken bis hin zum Krisenmanagement bei Naturkatastrophen oder Pandemien.

    Digitale Zwillinge sind detailgetreue Nachbildungen von Systemen, die auf einem wechselseitigen Informationsfluss mit dem realen Objekt ausgelegt sind. Sie ermöglichen einen bidirektionalen Austausch von Echtzeitdaten und tragen dazu bei, das aktuelle Geschehen besser zu verstehen. Dadurch können Probleme in Echtzeit behoben und die Leistung des realen Objekts optimiert werden.

    Wenn ein digitaler Zwilling erfolgreich einen ganzen Stadtteil emulieren kann, könnte er dann auch auf die individuelle Ebene ausgeweitet werden, um als Personal Digital Twin zu fungieren?

    Viele Experten sind überzeugt, dass diese Vision realisierbar ist, und tatsächlich arbeiten einige von ihnen bereits an äußerst ehrgeizigen Anwendungen. Die Einschätzung geht dahin, dass persönliche digitale Zwillinge bis zum Ende des Jahrzehnts zur alltäglichen Realität werden könnten – und dass dieser Fortschritt maßgeblich vom Gesundheitswesen vorangetrieben wird.

    Der ehemalige CEO von General Electric, Bill Ruh, prognostiziert beispielsweise, dass jeder Mensch schon von Geburt an mit einem digitalen Zwilling ausgestattet sein wird. Dieser digitale Zwilling wird das individuelle Genom der Person nutzen, um personalisierte Behandlungsvorschläge zu unterbreiten, sobald Krankheiten auftreten.

    Das der Personal Digital Twin mehr als nur eine Vision ist, beweist die Tatsache, dass im Jahr 2020 die Gemeinsame Forschungsstelle (Joint Research Centre – JRC) der Europäischen Kommission das Projekt „MyDigitalTwin: Trusted Personal Digital Twins in a Transformed Society“ ins Leben gerufen hat. Die im Internet verfügbaren Informationen zu diesem Projekt sind spärlich. Unter diesem Link erhält man folgende allgemeine Informationen:

    Das Projekt MyDigitalTwin (MyDT) zielt darauf ab, zu untersuchen, wie die schnell wachsende Generation persönlicher Daten über PDTs genutzt, überwacht und kontrolliert werden kann und welche Rolle PDTs beim Verständnis komplexer/schneller gesellschaftlicher Dynamiken spielen. Die Studie will die Herausforderungen im Zusammenhang mit Ethik und Datenschutz sowie die Möglichkeiten untersuchen, die bestehenden PDT-Rahmenwerke von einem Business-to-Customer (B2C)-Kontext auf einen Government-to-Citizen (G2C)-Kontext zu übertragen. Schließlich wird MyDT die Rolle der PDT für eine europäische e-Identität untersuchen.

    Weitere Informationen zum Projekt MyDigitalTwin (MyDT) der EU-Kommission finden sich im eBook von Prof. Roberto Saracco mit dem Titel „Personal Digital Twins – A third evolution step of humankind?“ (Persönliche digitale Zwillinge – Eine dritte Evolutionsstufe für die Menschheit?). Prof. Saracco ist nicht nur einer der Vorsitzenden der IEEE Digital Reality Initiative, sondern auch aktiver Teilnehmer in der Expertenarbeitsgruppe des MyDT-Projektes.

    Inwieweit soll der Personal Digital Twin (PDT) die physische Person widerspiegeln?

    Das hängt im Wesentlichen davon ab, was von dem PDT erwartet wird. Aktuell wird der Einsatz von PDTs im Gesundheitswesen propagiert. Ein PDT der so konzipiert ist, spiegelt physiologische Aspekte der Person mit einer Vielzahl von Details wider (Gewicht, Größe, Geschlecht, Herzschläge, Atemfrequenz, Stoffwechsel, usw.) und kann eine Vielzahl von weiteren gesundheitsbezogenen Daten enthalten (Genomsequenz, Allergien, Lebensumgebung, elterliche Pathologien, berufliche Risiken usw.).

    Wie schnell dies in die Praxis mittlerweile umgesetzt werden kann, demonstriert dieses Werbevideo von dem „Forward CarePod™, the World’s First AI Doctor’s Office“ des US-Unternehmens GoForward.

    Vor Kurzem stellte Google das MedLM vor, eine Reihe spezialisierter generativer KI-Modelle für das Gesundheitswesen. Laut Google entspricht die Leistungsfähigkeit dieser KI-Modelle dem Niveau eines Facharztes.

    Mit dem Versprechen eines umfassenden 360-Grad-Gesundheitsschutzes rund um die Uhr, 365 Tage im Jahr, wird die Mehrheit der Bevölkerung freiwillig den ersten Schritt in Richtung Personal Digital Twin (PDT) gehen.

    Eine große Menge von persönlichen Datensätzen sind offensichtlich entscheidend für den Betrieb des PDT, ein PDT ohne Daten existiert nicht. Eine aktuelle Übersicht, wie diese Daten technologisch erhoben und weiterverarbeitet werden, liefert der Artikel „Die letzte Bastion – Der menschliche Körper als Technologieplattform“.

    In dieser Situation ist das Vertrauen zwischen Personen und Institutionen, die persönliche Daten sammeln und verwalten, von entscheidender Bedeutung.

    Aus diesem Grund hat die Europäische Union (EU) Richtlinien wie die Datenschutz-Grundverordnung (DSGVO) und den ‚EU Data Act‘ eingeführt. Während der ‚EU Data Act‘ darauf abzielt, mehr Daten für gesellschaftliche und wirtschaftliche Zwecke verfügbar zu machen, legt die DSGVO den Schwerpunkt auf den Schutz personenbezogener Daten und die Rechte der Betroffenen. Diese Verordnungen adressieren unterschiedliche Bedürfnisse: Datenschutz und Vertraulichkeit einerseits, Nutzung und gemeinsame Nutzung von Daten andererseits.

    Hier ergibt sich ein mögliches Konfliktpotenzial. Eine harmonische Anpassung der Anforderungen beider Verordnungen erfordert sorgfältige Überlegungen, um sicherzustellen, dass die Ziele des freien Datenflusses und des Datenschutzes miteinander in Einklang gebracht werden. Und das ist eine echte Herausforderung für die Smart Governance.

    Denken wir daran, dass Biopolitik als zentraler Aspekt der Gouvernementalität das Leben der gesamten Bevölkerung durch staatliche und andere Institutionen in all seinen Facetten verwaltet. Während einer Pandemie wird die Krankheit nicht mehr nur als individuelles Problem betrachtet, sondern als eine Herausforderung, die die gesamte Gemeinschaft betrifft.

    Wie Personal Digital Twins bei der Bekämpfung einer Pandemie eingesetzt werden können und wie der Umgang mit persönlichen Daten aussieht, wird mit einfachen Worten von Prof. Saracco in diesem Videoausschnitt erklärt.

    [Excerpt from the Webinar „Digital Twins and Personal Digital Twins in Pandemic Monitoring and Control”]

    In diesem Szenario tauscht der Personal Digital Twin (PDT) gesundheitsrelevante Daten sowohl mit der physischen Person als auch mit den Gesundheitsbehörden, sprich der staatlichen Autorität, aus. Die staatliche Autorität legt fest, wie diese Daten im Kontext der aktuellen Pandemiesituation behandelt werden sollen und welche Konsequenzen dies für die physische Person hat. In der Regel werden bestimmte Verhaltensregeln vom Staat festgelegt. Solange sich die physische Person an diese Regeln hält, bleibt sie ‚anonym‘ und ihre Privatsphäre bleibt geschützt. Die Anonymität endet, wenn die Person die staatlich definierten Regeln nicht einhält (was einen Eingriff in die Privatsphäre darstellt). In dieser Konstellation wird die physische Person durch den PDT im 24/7-Modus überwacht und gegebenenfalls konditioniert.

    Die Ambitionen, eine physische Person durch PDTs widerzuspiegeln, reichen weit über den Gesundheitssektor hinaus. Wie weit kann und will man gehen?

    Die Diskussionen im Rahmen des MyDT-Projektes der EU-Kommission werden in erster Linie von der bereits verfügbaren und weiterwachsenden „Datenlandschaft“ der physischen Person gelenkt.

    Die Datenlandschaft, die potenziell Teil des Personal Digital Twins sein kann.
    [Forum Virium Helsinki]

    Bitte beachten Sie, dass nur ein kleiner Teil der Daten durch Selbstmessung von der Person selbst generiert und erfasst wird. Die meisten Daten entstehen durch die Interaktion der Person mit ihrer Umgebung und werden von verschiedenen Institutionen erfasst. Die Funktionsweise dieses Prozesses wurde bereits in den Kapiteln 4.1 und 4.2 veranschaulicht.

    Inwiefern die entstehende digitale Spur für die Erstellung eines persönlichen digitalen Zwillings verwendet wird, hängt von der Komplexität der Analyseverfahren der vorhandenen Datensätze ab. Durch den Einsatz von KI-Modellen ist es bereits heute möglich, ein umfassendes Profil einer Person in nahezu allen Lebensbereichen im Hintergrund zu erstellen. Dieses Profil kann verwendet werden, um zukünftige Bedürfnisse vorherzusagen und/oder diese Bedürfnisse zu beeinflussen oder zu steuern. Die zunehmende Raffinesse bei der Analyse und Verwaltung persönlicher Daten bringt uns dem Konzept eines digitalen Zwillings immer näher. Es handelt sich um einen ‚persönlichen‘ digitalen Zwilling in dem Sinne, dass er unsere Person (Gewohnheiten, Geschichte, zukünftiges Verhalten) widerspiegelt, jedoch gehört er uns nicht ‚persönlich‘ – im Grunde hat man keine Kontrolle über diesen Pseudo-Digitalzwilling.

    Eine Analyse des EU AI-ACT (EU-Verordnung zur Festlegung harmonisierter Regeln für künstliche Intelligenz) zeigt, dass die EU-Kommission den Einsatz von sogenannten Hochrisiko-KI-Systemen in nahezu allen Lebensbereichen plant. Diese Systeme sollen die Handlungen jedes Einzelnen engmaschig durch KI überwachen, überprüfen und bewerten. Letztlich könnte das ‚Schicksal‘ eines Individuums, einschließlich Bildung, berufliche Entwicklung, Zugang zu Dienstleistungen und finanziellen Mitteln, Bewegungsfreiheit, Rechtsschutz und Strafverfolgung, mehr oder weniger von diesen Systemen beeinflusst werden.

    Einsatzgebiete von Hochrisiko-KI-Systemen

    Damit sollte die Frage „Wie weit kann und will man gehen?“ beantwortet sein.

    Laut Prof. Roberto Saracco hat die Expertengruppe des MyDT-Projektes viele Anwendungen im Blick. Es besteht Einigkeit darüber, dass eine europäische Maßnahme die Akzeptanz und Verbreitung von PDTs fördern und ihre Nutzung als Teil des Internets der Menschen (IoP) im Gesundheitswesen unterstützen kann, einschließlich der Überwachung und Kontrolle von Epidemien. Dieser Bereich soll den Weg für Anwendungen in intelligenten Städten, E-Government usw. bereiten.

    Durch öffentlich-private Partnerschaften fördert Smart Governance die Entwicklung eines Ökosystems, in dem private Unternehmen eine Kultur etablieren, die die Nutzung von Smartphones und Wearables als grundlegendes Instrument voraussetzt. Diese Unternehmen bieten Dienste über Personal Digital Twins an und ermutigen andere Unternehmen, ähnliche Dienstleistungen über einen Personal Digital Twin anzubieten.

    Auf der einen Seite führt diese Entwicklung dazu, dass es möglicherweise viele verschiedene Personal Digital Twins (PDTs) gibt, was potenziell Verwirrung stiften kann. Auf der anderen Seite könnte dies Unternehmen dazu motivieren, einen integrierten PDT anzubieten, der bestehende, sektorenspezifische PDTs für einzelne Personen zusammenfasst.

    Prof. Saracco äußert sich zu dem Thema wie folgt:

    Ich besitze keine Glaskugel, aber wenn ich eine Vorhersage treffen müsste, denke ich, dass die Entwicklung eher von unten nach oben erfolgen wird als umgekehrt. Es ist unwahrscheinlich, dass eine Institution (wie die EU) die Evolution von PDTs vorschreiben und steuern wird. Es ist viel wahrscheinlicher, dass mehrere Unternehmen Dienstleistungen anbieten werden, die zur Schaffung/Annahme von PDTs für Menschen führen. Andere Unternehmen werden Werkzeuge bereitstellen, um fragmentierte PDTs in eine einzige Einheit zu integrieren, die mit einem allgemeinen Rahmen konform sein kann (dies könnte durch die Arbeit auf internationaler Standardisierungsebene entstehen), der einige Merkmale haben kann, die von einer Organisation wie der EU reguliert werden.“ [Personal Digital Twins]

    Perspektivisch ist anzunehmen, dass die zahlreichen PDTs, die im Laufe der Zeit erstellt werden, um spezifische Aspekte einer Person darzustellen, sich zu einem aggregierten PDT vereinen werden. Professor Saracco prognostiziert, dass in den nächsten zehn Jahren und darüber hinaus jede Person einen persönlichen digitalen Zwilling haben wird. Dieser Personal Digital Twin wird bereits während der Schwangerschaft ‚geboren‘, indem Daten aus den Untersuchungen der Mutter gesammelt werden, und er wird sich während des gesamten Lebens der Person weiterentwickeln. Der PDT wird die gesamte digitale Persönlichkeit repräsentieren und kann verwendet werden, um zu einem bestimmten Zeitpunkt Daten zu teilen, jedoch nur mit vorab autorisierten Institutionen, die die Erlaubnis und Notwendigkeit zum Zugriff haben, stets unter Kontrolle der physischen Person.

    Erinnern wir uns daran, dass der digitale Zwilling auf einen wechselseitigen Informationsfluss mit dem zu emulierenden Objekt ausgelegt ist. Es erfolgt ein bidirektionaler Austausch von Daten. Er kann als eine Schnittstelle zwischen der physischen Person und diversen KI-Systemen betrachtet werden, die wiederum von privaten bzw. staatlichen Institutionen betrieben bzw. kontrolliert werden. Einerseits werden die Daten, die zu der Generierung von PDTs erfasst werden, auch zum Trainieren und zur weiteren Entwicklung von KI-Systemen verwendet. Andererseits können KI-Systeme durch die Analyse und Verarbeitung dieser digitalen Repräsentation personalisierte Empfehlungen, Assistenz oder sogar Vorhersagen bereitstellen, die auf den individuellen Merkmalen und Verhaltensweisen einer Person basieren.

    In Krisensituationen können PDTs zur „passiven Überwachung“ sowie zur „aktiven Konditionierung“ der physischen Person beitragen. Ein Beispiel diesbezüglich wurde in dem Videobeitrag von Prof. Saracco allgemeinverständlich veranschaulicht. Wenn einmal die Infrastruktur etabliert ist, kann sie der jeweiligen Krisensituation mit allen für das Individuum resultierenden Restriktionen und Konsequenzen zeitnah angepasst werden. Vergessen wir nicht, dass die nächste Dekade voller globaler Risiken ist.

    4.4. Das intelligente Geld – Smart Money und Smart Governance

    Die fortschreitende globale Vernetzung durch Technologien wie 5G und das Internet der Dinge (IoT), unterstützt durch leistungsfähige KI-Algorithmen treibt die Entwicklung der sogenannten ‚Smart Economy‘ voran. Diese bezeichnet eine Wirtschaft, die durch digitale Technologien und datengesteuerte Prozesse effizienter, nachhaltiger und innovativer wird. Schlüsseltechnologien wie Internet der Dinge, künstliche Intelligenz, Big Data und Blockchain spielen dabei eine zentrale Rolle, indem sie Unternehmen helfen, Abläufe zu optimieren, ihre Produktion effizienter zu gestalten, den Energieverbrauch zu senken, ihre Ressourcen besser zu nutzen, neue Geschäftsmodelle zu entwickeln und besser auf Kundenbedürfnisse einzugehen.

    In einer Smart Economy werden kontinuierlich Daten gesammelt und analysiert, um fundierte Entscheidungen zu treffen. Dabei spielt die Vernetzung mit dem Finanzsektor eine entscheidende Rolle. Diese Verbindung ermöglicht es, finanzielle Transaktionen effizienter, sicherer und transparenter zu gestalten. Die nahtlose Integration von Finanzdienstleistungen in die digitale Wirtschaft stellt neue Anforderungen an die digitale Form des Geldes und führt zwangsläufig zu ihrer weiteren Entwicklung.

    Im Rahmen dieser evolutionären Entwicklung werden digitale Währungen erweiterte Funktionen anbieten, die über die einfachen Zahlungs- und Wertaufbewahrungsrollen traditioneller Währungen hinausgehen. Man spricht von der sogenannten ‚tokenisierten‘ Form des Geldes. Sehr detaillierte und umfangreiche Informationen zu diesem Thema findet man in dem Artikel CBDC – Eine Liebesgeschichte mit Vorbehalten.

    An der Stelle reicht es zu sagen, dass man unter „Tokenisierung“ den Vorgang versteht, bei dem Vermögenswerte aus der realen Welt in die digitale Welt übertragen werden, indem sie in digitale Tokens umgewandelt werden. Diese Tokens fungieren als digitale Repräsentationen der realen Vermögenswerte und werden in einer Datenbank gespeichert.

    Ein Vermögenswert (auch Asset genannt) ist ein wirtschaftlicher Wert oder eine Ressource, die einem Unternehmen, einer Person oder einer Organisation einen Nutzen oder einen Anspruch auf zukünftigen Nutzen bietet. Dazu können materielle Assets (Grundstücke, Gebäuden, Maschinen, Fahrzeuge, Ausrüstung, Inventar), immaterielle Assets (Patente, Lizenzen, Urheberrechte, Software), natürliche Assets (Land, Wasser, Bodenschätze) und finanzielle Assets (Bargeld, Bankguthaben, Aktien und andere Finanzinstrumente) gehören.

    Die Datenbank, auch Ledger genannt, dient dazu, den aktuellen Stand von Vermögenswerten, Verbindlichkeiten und Kapital eines Unternehmens oder einer Organisation festzuhalten. Traditionell hat eine zentrale Autorität die Kontrolle über die Daten und steuert den Zugriff zentral. In einer Smart Economy wird zunehmend eine dezentrale Datenbank, auch Distributed Ledger genannt, verwendet. Im Gegensatz zu zentralisierten Ledgern, die von einer einzigen zentralen Stelle verwaltet werden, befinden sich die Daten in einem Distributed Ledger auf vielen verteilten Knoten oder Computern, die über ein Netzwerk miteinander verbunden sind. Diese dezentrale Natur gewährleistet eine höhere Sicherheit, da die Daten auf mehreren Knoten gespeichert sind und Änderungen kryptografisch gesichert werden. Blockchain ist eine spezifische technologische Implementierung eines Distributed Ledgers.

    Dabei beinhaltet ein Token neben den Informationen über den Vermögenswert (z. B.  eindeutige Identifizierung, Eigentümer, Verwahrstelle, Herkunft, Wert, etc.) auch Regeln, die festlegen, was der Vermögenswert tun kann und was nicht.

    Die Token-Definition nach BIS [BIS]

    Dies erleichtert die Einbindung der Tokens in sogenannte intelligente Verträge, auch Smart Contracts genannt. Ein Smart Contract ist ein Softwareprogramm, das einen selbstausführenden Vertrag repräsentiert, dessen Bedingungen direkt im Code enthalten sind. Diese Codes laufen auf einer Blockchain und führen automatisch Aktionen aus, wenn vordefinierte Bedingungen erfüllt sind, ohne dass eine Zwischeninstanz erforderlich ist.

    Ein Smart Contract deckt alle Schlüsselbereiche eines Vertrags ab: von der Identifizierung der Vertragsparteien über den Vertragsgegenstand bis hin zu Leistungen, Pflichten, Konditionen und Laufzeit, sowie der Verwaltung und Durchsetzung. Ein Smart Contract ist absolut präzise. Er folgt der vorprogrammierten Logik bis ins kleinste Detail und wird deterministisch ausgeführt. Diese Logik legt fest, wie die Tokens funktionieren und welche Regeln sie einhalten müssen.

    Im neuen Geldsystem erhalten alle heute verfügbaren Geldformen einen digitalen Zwilling.

    Neue und bestehende Geldarten für ein Fiat-Geldsystem der Zukunft [Position Paper]

    In diesem technologischen Konstrukt lassen sich alle Geldtransaktionen nicht nur eindeutig identifizieren und nachverfolgen, sondern auch in komplexe, automatisch ablaufende Prozesse einbinden. Neben dem Zahlungsverkehr können selbst Geldfunktionen programmiert werden, was als „Smart Money“ bezeichnet wird. Die traditionelle Geldbörse, in der man Bargeld und Karten aufbewahrt, verwandelt sich in ein Digital Wallet – eine App auf dem Smartphone oder Computer, die es dem Anwender ermöglicht, seine digitalen Tokens aufzubewahren, Geld zu senden und zu empfangen, Einkäufe zu tätigen und seine Transaktionen zu verwalten.

    Die Vorteile der neuen Geldformen sind nicht von der Hand zu weisen. Durch ihre Integration in Smart Contracts können Transaktionen schneller und kostengünstiger abgewickelt werden als herkömmliche Banküberweisungen, die oft mehrere Tage dauern. In einer Smart Economy lassen sich so die Ströme von Gütern, Geld und Informationen automatisieren und synchronisieren, was zu einer weiteren Effizienzsteigerung führt.

    Die Transparenz und Rückverfolgbarkeit von Transaktionen, die auf einer Blockchain durchgeführt werden, reduziert das Risiko von Betrug und erleichtert die Einhaltung von Vorschriften. Ein weiterer Vorteil von Smart Money ist die finanzielle Inklusion, da es den Zugang zu Finanzdienstleistungen für Menschen verbessern kann, die bisher vom traditionellen Bankensystem ausgeschlossen waren, was besonders in Entwicklungsländern von Vorteil ist.

    Interoperabilität ist ein weiterer wichtiger Faktor. Tokenisiertes Geld kann in verschiedenen digitalen Ökosystemen verwendet werden und ermöglicht eine nahtlose Integration mit anderen digitalen Diensten und Plattformen. Schließlich bieten diese digitalen Währungen durch den Einsatz fortschrittlicher Verschlüsselungstechniken und dezentraler Netzwerke ein hohes Maß an Sicherheit gegen Cyberangriffe und Manipulation.

    Die so entstandenen intelligenten und flexiblen Finanzinstrumente können die Wirkung von Smart Governance auf das Leben der Bürger nicht nur erheblich verbessern, sondern auch vertiefen.

    Bei Transaktionen von der Regierung zum Bürger (Government-to-Citizen) als auch von Bürgern zur Regierung (Citizen-to-Government) eröffnen sich ganz neue Perspektiven. Regierungen können sicherstellen, dass öffentliche Mittel direkt und ohne Verzögerung dort ankommen, wo sie benötigt werden. Bürger können schneller und sicherer Zugang zu Sozialhilfen, Renten oder Subventionen erhalten. Auch im Steuersystem zeigt Smart Money seine Vorteile, indem es Steuerzahlungen automatisch und in Echtzeit ermöglicht. Dies reduziert den Verwaltungsaufwand, minimiert Fehler und erhöht die Effizienz des Steuersystems. Durch die automatisierten Steuerzahlungen wird der Prozess einfacher und transparenter, was die Steuerehrlichkeit fördern kann.

    Die Kombination aus Digital ID, Smart Phone und Digital Wallet ermöglicht den Zugang zu Finanzdienstleistungen für Menschen ohne Bankkonto oder mit begrenztem Zugang zu traditionellen Finanzinstituten. Diese finanzielle Inklusion fördert nicht nur die wirtschaftliche Teilhabe und hilft, soziale Ungleichheiten zu verringern, sondern maximiert den Wirkungsradius der Smart Governance so, dass sie bis in die verborgensten Winkel der Bevölkerung Wirksamkeit zeigt.

    Intelligentes Geld erleichtert die effektivere Umsetzung spezifischer politischer Agenden, wie zum Beispiel die Förderung nachhaltiger Entwicklung. Regierungen können umweltfreundliches Verhalten und nachhaltige Investitionen fördern, indem sie digitale Währungen und Smart Contracts nutzen, um umweltbezogene Subventionen und Steuervergünstigungen effizient zu verwalten.

    Und das ist nicht alles. Wie im Artikel CBDC – Eine Liebesgeschichte mit Vorbehalten beschrieben, bildet die tokenisierte Form des Geldes die technologische Grundlage für zahlreiche neue, innovative Finanzdienstleistungen im privaten Industrie- und Finanzsektor. Mit immer leistungsfähigeren Technologien, die zunehmend auf KI-Algorithmen basieren, verwandeln sich Städte in ‚Smart Cities‘, Gebäuden in ‚Smart Buildings‘ oder ‚Smart Homes‘ und Autos in ‚Smart Cars‘. Diese umfassende Vernetzung ermöglicht es, immer mehr Informationen aus unserem Alltag zu extrahieren und in digitalen Plattformen zu verarbeiten. Das Motto ’schneller, weiter, höher‘ treibt die Integration persönlicher finanzieller Daten, Mobilitätsprofilen, Details der Lebens- und Arbeitsumgebung sowie des körperlichen Wohlbefindens in algorithmisch gesteuerte Regeln voran, die in Smart Contracts festgehalten werden können.

    Dabei legt die „Smart Governance“ die Regeln, Transparenzanforderungen, Effizienzziele, Sicherheitsstandards, Beteiligungsmechanismen und Datenschutzrichtlinien fest, die sicherstellen, dass Smart Contracts in einem rechtlichen und regulatorischen Rahmen operieren. Dadurch können wesentliche Aspekte des Lebens einer Person indirekt durch die „Smart Governance“ beeinflusst werden.

    Die Integration von Smart Money in die Smart Governance bringt viele Vorteile, aber auch erhebliche Herausforderungen in Bezug auf Kontrolle und Überwachung mit sich. Diese Aspekte müssen kritisch betrachtet werden, um die Balance zwischen Effizienz und persönlicher Freiheit zu wahren. Durch den Einsatz von Smart Money können Regierungen und Finanzinstitutionen detaillierte Transaktionsdaten in Echtzeit verfolgen. Dies ermöglicht eine genauere Überwachung des finanziellen Verhaltens der Bürger, da jede Transaktion zurückverfolgt und analysiert werden kann. Ein recht eindringlicher Kommentar dazu stammt von Augustin Carstens, dem Generaldirektor der Bank for International Settlements (BIS):

    Smart Money gibt Regierungen die Möglichkeit, finanzielle Aktivitäten zu kontrollieren. Zahlungen für bestimmte Waren und Dienstleistungen könnten eingeschränkt oder blockiert werden, um illegale Aktivitäten zu bekämpfen oder politisch unerwünschtes Verhalten zu regulieren.

    Die Speicherung und Verarbeitung großer Mengen persönlicher Finanzdaten birgt erhebliche Datenschutzrisiken. In autoritären Regimen besteht die Gefahr, dass Smart Money als Werkzeug zur politischen Unterdrückung missbraucht wird. Regierungen könnten finanzielle Sanktionen gegen politische Gegner verhängen oder den Zugang zu finanziellen Ressourcen für bestimmte Bevölkerungsgruppen einschränken.

    Um Bedenken hinsichtlich staatlicher Überwachung zu mildern, ist es die Aufgabe der Behörden, der Öffentlichkeit zu versichern, dass angemessene Vorschriften und Kontrollen vorhanden sind. In diesem Zusammenhang spielen internationale Organisationen wie die OECD eine wichtige Rolle. Das Dokument der OECD mit dem Titel „Central Bank Digital Currencies (CBDCs) and democratic values“ enthält einige relevante Aussagen zu diesem Thema.

    Eines der Risiken, die CBDCs für die Gesellschaft mit sich bringen, ist ihr potenzieller Einsatz als Überwachungsinstrumente, da sie potenziell Zugang zu einem höheren Maß an Informationen über die Nutzer haben, einschließlich Informationen auf Transaktions- und Kontoebene. Im Extremfall könnten die CBDCs den Regierungen die Möglichkeit geben, alle Transaktions- und sonstigen Finanzaktivitäten der Nutzer zu überwachen und zu verfolgen, und auch die Möglichkeit, eine größere Kontrolle über private Transaktionen auszuüben. Die Behörden könnten Nutzer und Transaktionen ungerechtfertigterweise zensieren, ohne dass ein ordnungsgemäßes Verfahren oder ein Rechtsbehelf vorgesehen ist.

    In einem Szenario, in dem CBDC für die groß angelegte Kontrolle von Geldtransaktionen eingesetzt werden, könnten CBDC zudem zu einem Instrument der Kontrolle und der sozialen Profilierung, der voreingenommenen und diskriminierenden Behandlung von Nutzern und möglichen Menschenrechtsverletzungen werden.

    Die OECD ist eine internationale Organisation mit 38 Mitgliedstaaten, die sich der Demokratie und Marktwirtschaft verpflichtet fühlen. Zu ihren Mitgliedern gehören viele EU-Staaten, die USA, Kanada, Großbritannien, Japan sowie Australien. Das Dokument betont, dass nicht nur die Risiken bei der Einführung von CBDC verstanden werden, sondern auch klare Richtlinien festgelegt werden, um sicherzustellen, dass demokratische Werte bei der Gestaltung und Umsetzung von CBDCs berücksichtigt werden. Es gibt vier Hauptbereiche, auf die besonders geachtet wird: (i) bürgerliche Freiheiten und Menschenrechte; (ii) Gleichbehandlung: Verfügbarkeit, Zugänglichkeit und Erschwinglichkeit; (iii) Privatsphäre und Integrität; (iv) Vertrauen: Sicherheit, Transparenz, betriebliche Widerstandsfähigkeit sowie Schutz der genannten Werte.

    Demokratische Werte für die Gestaltung und Umsetzung von CBDCs, wie im OECD-Bericht definiert [OECD iLibrary]

    Die OECD betrachtet den Datenschutz wie folgt:

    Was die Datenschutzoptionen betrifft, so würde der niedrigste Grad an Datenschutz ein Design beinhalten, bei dem alle Onboarding/KYC- und Transaktionsdaten für die Zentralbank sichtbar sind. Der zweitniedrigste Grad des Datenschutzes würde Transparenz und Sichtbarkeit der oben genannten Daten nur für den Intermediär bedeuten. Am anderen Ende des Spektrums sind keine Daten für Dritte oder die Zentralbank selbst sichtbar, d.h. vollständige Anonymität, was nicht wünschenswert ist, da dies die Kontrolle des Umlaufs und die Verhinderung von Geldwäsche unmöglich machen würde. Außerdem würde dies Regulierungs- und Durchsetzungsmaßnahmen erschweren. Stattdessen sieht ein Modell des „selektiven Datenschutzes“ ein höheres Maß an Datenschutz für Zahlungen mit geringem Wert bzw. geringem Risiko vor, das vereinfachte Kontrollen beinhaltet (z.B. eine spezielle Brieftasche mit geringeren Anforderungen bei der Anmeldung). Bei diesem Modell würden Transaktionen mit höheren Beträgen weiterhin den Standardkontrollen unterliegen.

    Unabhängig davon, ob Begriffe wie „selektiver Datenschutz“ oder „Pseudonymität“ verwendet werden, wird die vollständige Anonymität des physischen Bargelds nicht erreicht werden können. 

    Ein genehmigungspflichtiges CBDC-System, bei dem die Teilnahme von einer vertrauenswürdigen Stelle oder einer Reihe von vertrauenswürdigen Stellen verwaltet wird, könnte bessere Ergebnisse im Hinblick auf den Schutz der Privatsphäre sensibler Finanzdaten erzielen: Die Transaktionshistorie ist in der Regel nur für eine kleine Anzahl von vertrauenswürdigen Stellen einsehbar und wird gegenüber anderen geheim gehalten.“ [OECD]

    Im Wesentlichen wird eine Art asymmetrischer Schutz der Privatsphäre angewendet. Während die Mehrheit die wahre Identität einer Person hinter einem Pseudonym (z. B. öffentliche Adresse/Schlüssel) nicht kennt und somit die Privatsphäre (z. B. private Adresse/Schlüssel) gewahrt bleibt, besteht die Möglichkeit für eine ausgewählte Gruppe von Personen oder Institutionen, die wahre Identität durch spezielle Kenntnisse und den Zugriff auf entsprechende Technologien zu ermitteln. Daher bietet die Pseudonymität keine vollständige Anonymität, sondern gewährt eine gewisse Privatsphäre gegenüber der breiten Öffentlichkeit, während sie gleichzeitig die Rückverfolgbarkeit für bestimmte autorisierte Parteien ermöglicht.

    Das ist ein wichtiger Punkt. Die Möglichkeit, die Identität einer Person hinter einem Pseudonym zu ermitteln, trägt in gewisser Weise zur weiteren Konzentration von Wissen und Macht bei. Personen oder Organisationen, die über die Ressourcen und die technischen Fähigkeiten verfügen, die Identität zu entschlüsseln, können dadurch eine erhöhte Kontrolle über die Informationen und die Handlungen derjenigen ausüben, die Pseudonyme verwenden. Dies kann insbesondere dann problematisch sein, wenn diese Macht in den Händen weniger, mächtiger Institutionen oder Regierungen liegt, was zu einem Ungleichgewicht in Bezug auf Datenschutz und individuelle Freiheit führen kann.

    In diesem Sinne ist es wichtig, dass der Einsatz von Pseudonymität in der Gesellschaft und in technologischen Systemen mit entsprechenden Schutzmechanismen und Datenschutzbestimmungen einhergeht, um den Missbrauch von Wissen und Macht zu verhindern und die individuelle Privatsphäre zu wahren. In den meisten Fällen sind staatliche oder behördliche Institutionen für die Festlegung und Durchsetzung von Datenschutzbestimmungen und Schutzmechanismen gegen Datenmissbrauch verantwortlich. Diese Institutionen werden oft von den jeweiligen Regierungen eingerichtet.

    Und diese Konstellation enthält einen impliziten Widerspruch. Der Widerspruch ergibt sich daraus, dass die Institutionen, die für den Schutz der Privatsphäre verantwortlich sind, von Regierungen gebildet werden, die gleichzeitig auch ein Interesse daran haben, mehr Daten zu sammeln und zu nutzen. In gewisser Weise ist Smart Governance die Instanz, die sich selbst regulieren muss.

    Neben dem Datenschutz der Privatsphäre der Bürger ist die Programmierbarkeit der tokenisierten Geldformen ein weiterer Aspekt, das besondere vertrauensbildende Maßnahmen erfordert. In dem Dokument „Central Bank Digital Currencies (CBDCs) and democratic values“ äußert sich die OECD zu diesem Thema wie folgt:

    Die Programmierbarkeit könnte zwar staatlich oder von der Zentralbank initiiertes programmierbares Geld ermöglichen, das nur auf bestimmte Weise funktioniert, doch würde dies den politischen Zielen zuwiderlaufen, den Bürgern einheitliche CBDCs zur Verfügung zu stellen und das Vertrauen der Nutzer zu fördern. Die Programmierbarkeit von Zahlungen hingegen, die von den Nutzern kontrolliert wird, könnte den Nutzern erweiterte Funktionen bieten, um Regeln für ihre Zahlungen festzulegen. In einigen Fällen ist vorgesehen, dass Anbieter von Zahlungsschnittstellen und Anbieter von Schnittstellen zu externen Diensten solche programmierbaren Funktionen selbst implementieren könnten, aber sie würden die Zustimmung der Nutzer erfordern und nicht auf Anweisung des Emittenten erfolgen.

    Die Europäische Zentralbank EZB hat programmierbares Geld ausdrücklich ausgeschlossen, befürwortet jedoch programmierbare Zahlungen. Während programmierbares Geld einen direkten Eingriff in die finanzielle Freiheit der Bürger darstellt, da es die Verwendung von Geld durch festgelegte Regeln und Bedingungen einschränken kann, ist der Einfluss der programmierbaren Zahlungen nicht sofort erkennbar. Im Kontext von Smart Contracts kann der programmierbare Zahlungsverkehr auf vielfältige Weise das Verhalten der Bürger beeinflussen, indem er automatisierte Anreize, bedingte Zahlungen, regulierungskonforme Transaktionen, Vertragsmanagement und dynamische Preisanpassungen ermöglicht. Diese Mechanismen sind darauf ausgelegt, Effizienz und Vertrauen zu erhöhen, während sie gleichzeitig das Verhalten der Beteiligten subtil und indirekt steuern.

    Smart Money wird auf jeden Fall ein leistungsfähiges Instrument der Smart Governance in modernen Gesellschaften sein, da es die Koordination aller Marktteilnehmer im Einklang mit wirtschaftlichen und politischen Zielen verbessert.

    Um dieses Ziel zu erreichen, müssen die Bürger ein hohes Maß an Vertrauen in die Regierung und Finanzinstitute haben. Wenn sie das Gefühl haben, dass ihre finanzielle Privatsphäre und Freiheit bedroht sind, könnte das zu Widerstand und Ablehnung der neuen Technologien führen. Daher wird sich Smart Governance darum kümmern, dass die Bürger sich sicher fühlen. Dabei spielt es eine weniger wichtige Rolle, ob die Privatsphäre und finanzielle Freiheit tatsächlich gefährdet sind; entscheidend ist, dass die Bürger glauben, ihre Daten seien sicher und ihre Freiheit unangetastet. Dieses Gefühl der Sicherheit und des Vertrauens ist daher ein wesentlicher Faktor für den Erfolg von Smart Governance und Smart Money.

    5. Ein Blick in die Zukunft – Smart Governance in ihrer besten Form

    Wenn Sie sich über die mögliche Entwicklung der Gesellschaft unter der Ägide von Smart Governance noch unsicher sind, lohnt sich ein genauerer Blick auf die Zukunftsvision der Initiative „Tokenise Europe 2025“. Diese von der Europäischen Kommission und dem Bundesverband deutscher Banken ins Leben gerufene Initiative wird von der Unternehmensberatung Roland Berger sowie über 20 Mitgliedsorganisationen aus verschiedenen Ländern und Branchen unterstützt, um die Tokenisierung Europas voranzutreiben.

    Die Zukunft Europas wird wie folgt beschrieben:

    Im Jahr 2030 gehen wir nicht mehr „online“, denn das Online-Sein ist ein fester Bestandteil des Lebens. Technologie und digitale Dienste sind in unsere täglichen Abläufe, unsere Arbeit und unseren Lebensstil eingebettet, und das 24 Stunden am Tag.

    EIN TAG IM LEBEN EINES TOKENISIERTEN EUROPAS IM JAHR 2030

    07:00

    Draußen wird es warm. Simon ist europäischer Staatsbürger und hat einen eindeutigen digitalen Identitäts-Token in seiner Smartwatch gespeichert. Simons digitaler Personal Trainer empfängt Fitnessdaten von seiner Smartwatch, während er schläft. Simons Token-basierter digitaler Zwilling errechnet immer die beste Aktion, die er als Nächstes durchführen sollte. Der Trainer erstellt einen Tagesplan, der auf Simons Vorlieben und Fitnesszustand abgestimmt ist. Der Plan für den heutigen Tag wird bereits vor dem Weckerklingeln an alle seine elektronischen Geräte gesendet. Eine Mikrozahlung an seinen digitalen Personal Trainer wurde automatisch getätigt, noch bevor Simon aufwachte. Da auch die Wetterdaten an sein Smart Home gesendet und von seinem lokalen Sensor angepasst wurden, wird die Klimaanlage aktiviert. Simon erhält einige Münzen für die von seinem lokalen Sensor gesammelten Daten.

    07:30

    Zeit für das Frühstück! Der Kühlschrank, der das Wetter und Simons Fitnesszustand kennt, wird ihm empfehlen, heute eine leichte Mahlzeit zu sich zu nehmen. Der Kühlschrank weiß, was in ihm gelagert wird, und kennt auch Simons Vorlieben (z. B. für Bio-Lebensmittel, die vom Hersteller über einen digitalen Token mit allen Informationen über Produktion, Transport und Lieferung digital zertifiziert sind). Durch die Kombination dieser Informationen mit Simons digitaler ID und seinen Zahlungsdaten kann der Kühlschrank fehlende Lebensmittel nachbestellen. Simons Lebensmittellieferant liefert ihm die Lebensmittel innerhalb von 20 Minuten nach Hause.

    08:00

    Simon erhält einen Vorschlag von seinem Anbieter von Elektrofahrzeugen: „Simon, Sie sollten bei heißem Wetter nicht den langen Weg ins Büro laufen. Wir empfehlen, eine umweltfreundliche Fahrgemeinschaft zu nutzen. Bitte bestätigen Sie die Vorbuchung, die wir vorgenommen haben.“ Im Jahr 2030 werden alle digitalen Identitäten – die von Menschen und Maschinen gleichermaßen – in digitalen Brieftaschen gespeichert. Diese Geldbörsen enthalten auch digitales Geld, Führerscheine, Versicherungspolicen und Angaben zur registrierten Adresse usw. – in Simons Fall alles nach seinen persönlichen Vorlieben und den Regeln, die er als Eigentümer der Daten selbst festgelegt hat. Das Elektroauto, das sich über Nacht auf dem Parkplatz aufgeladen hat, steht bereit und wartet auf ihn.

    08:15

    Um eine optimale Verteilung der Autos innerhalb der Stadt zu gewährleisten, berechnen dynamische Preismodule die Nutzungsgebühren auf der Grundlage des Standorts und/oder nahe gelegener Ereignisse. Nachdem der Autoschlüssel als digitaler Zwilling an Simons Smartphone gesendet wurde, wird die Nutzungsgebühr zusätzlich zum dynamischen Preis pro Kilowattstunde anhand des Verbrauchs berechnet. Die Versicherungsgebühr ist über einen separaten Versicherungs-Token und abhängig von seinem Fahrstil zu zahlen. Heute hat er einen Rabatt erhalten, weil er auch Inhaber eines Sicherheitstokens des Carsharing-Unternehmens ist, das heute eine Dividende ausschüttet.

    08:30

    Simon arbeitet in der Logistikabteilung eines Textilunternehmens, das seine Produkte außerhalb Europas herstellt und eine globale Lieferkette hat. In der Zeit vor der Tokenisierung war die Verwaltung globaler Lieferketten eine Herausforderung, da viele Lieferanten, Zwischenhändler und Behörden in vielen verschiedenen Ländern involviert waren – eine Komplexität, die zu den nicht-digitalen bzw. papiergestützten Prozessen, Sprachbarrieren, rechtlichen Unterschieden und Zeitzonenunterschieden hinzukam. In Kombination mit digitalen Verträgen und Transaktionen hat die Tokenisierung die Transparenz, Sicherheit und Effizienz solcher Transaktionen erheblich verbessert.

    09:00-17:00

    Von seinem Büro in Berlin aus kann Simon jedes Glied der Produktionskette verfolgen. Frau Jin pflückt die Baumwolle auf einem Feld in der Region Huang-Huai-Hai, und Herr Xiao liefert die Baumwolle an die Fabrik. Ein eingebetteter Token enthält Informationen darüber, welche Arbeiter an dem Produkt gearbeitet haben und am Transport per Lkw zum Hafen und zum Schiff usw. beteiligt waren. Dies ist besonders nützlich, um sicherzustellen, dass bei jedem Schritt nachhaltige und ethische Produktions- und Transportstandards eingehalten wurden. Da die Verträge mit den Lieferanten als intelligente Verträge in einem Netzwerk mit verteilter Ledger-Technologie definiert sind, erfolgen alle Zahlungen automatisch. Wenn die vertraglichen Anforderungen erfüllt sind, wird die Zahlung automatisch von der Geldbörse des Unternehmens abgebucht, während Simon im Büro einen Kaffee trinkt. Nachdem er sich vergewissert hat, dass mit der Transaktion alles in Ordnung ist, nimmt Simon an seinem Geschäftstermin teil, der in einer Metaverse-Anwendung stattfindet.

    17:00

    Am Ende seines Arbeitstages erinnert Simons digitaler Personal Trainer ihn an seinen Sportkurs, der sich ebenfalls im Metaversum befindet. Sein Trainer, der in den USA lebt, wird auf ihn warten, so dass beide ein digitales Training absolvieren können, als ob sie sich am selben Ort befänden.

    20:00

    Nach dem Training geht Simon mit Zeynep essen. Die Rechnung für das köstliche Abendessen wird direkt an Simons Brieftasche geschickt, wo er den Trinkgeldbetrag auswählt und in digitalen Euro bezahlt. Der Anbieter der Brieftasche – seine Bank – schickt ihm jedes Mal eine Benachrichtigung, wenn eine Zahlung oder eine andere Änderung in der Brieftasche vorgenommen wird. Darüber hinaus besteht seine persönliche elektronische Brieftasche nicht nur aus Zahlungsmitteln, sondern auch aus einer Vielzahl von tokenisierten Vermögenswerten: Aktien, Stablecoins, börsengehandelte Fonds (ETFs) und Unternehmensanleihen. Einige seiner Freunde besitzen auf die gleiche Weise sogar Teile von Oldtimern, Kunstwerken, Häusern und anderen Gegenständen. Dies ist möglich, weil früher illiquide Anlageklassen, hochpreisige Vermögenswerte und teure Transaktionen heute in kleinen Bruchteilen digital und fast ohne Transaktionskosten erworben und verarbeitet werden können.

    Zu Hause angekommen, sieht sich Simon ein letztes Mal die neuesten Nachrichten im Metaversum an, die auf seinen selbst definierten Vorlieben basieren. Dann macht er Schluss für heute.

    6. Smart Resistance

    Entspricht diese Zukunftsvision, die von der Europäischen Kommission und dem Bundesverband deutscher Banken entwickelt wurde, Ihren Vorstellungen? Möchten Sie einen vergleichbaren Alltag wie Simon führen?

    Wenn ja, dann herzlichen Glückwunsch! Sie werden wahrscheinlich eine vorbehaltlose Liebesgeschichte mit der vernetzten und kooperativen Umgebung erleben, in der öffentliche und private Akteure zusammenarbeiten, um eine nachhaltige und lebenswerte Gesellschaft zu fördern.

    Wenn diese Vision bei Ihnen gemischte Gefühle auslöst, könnte Ihre Beziehung zum Smart Governance System eher eine Liebesgeschichte mit Vorbehalten sein. Trotz der wahrgenommenen Vorteile des neuen Systems hoffen Sie möglicherweise darauf, dass die Regierung ein starkes Demokratieverständnis zeigt und die potenziellen Nachteile des Systems abmildert oder zumindest berücksichtigt.

    Die Geschichte hat uns jedoch gelehrt, dass sich das Demokratieverständnis im Laufe der Zeit verändern kann. Es wird von verschiedenen Faktoren beeinflusst, darunter gesellschaftliche Entwicklungen, politische Ereignisse, kulturelle Veränderungen und individuelle Erfahrungen. Zum Beispiel können sich technologische Fortschritte, wirtschaftliche Bedingungen oder politische Krisen auf die Wahrnehmung und Interpretation von Demokratie auswirken. Medien und politische Diskurse können dazu beitragen, dass sich die Vorstellungen und Erwartungen bezüglich Demokratie im Laufe der Zeit ändern.

    Wenn Sie die Vision ablehnen, vergessen Sie nicht, dass Michel Foucaults Theorie besagt, dass Macht und Widerstand untrennbar miteinander verbunden sind. In einer Welt, die zunehmend von Technologie und Daten geprägt ist, werden sich auch die Formen des Widerstands weiterentwickeln. Diese werden sich ebenfalls moderner Technologien bedienen, um gegen die Machtstrukturen der Smart Governance vorzugehen. Diese Bewegung kann als Smart Resistance bezeichnet werden.

    Der intelligente Widerstand könnte auf fortschrittliche Technologien wie Verschlüsselung, anonymisierende Netzwerke (z. B. Tor), dezentrale Plattformen und Blockchain zurückgreifen, um den Datenschutz zu wahren und Überwachung zu umgehen. Aktivisten könnten sich sozialer Medien, Online-Petitionen und digitaler Kampagnen bedienen, um Aufmerksamkeit zu erregen, Bewusstsein zu schaffen und politische Veränderungen zu fordern. Hackergruppen könnten Schwachstellen in den Systemen der Smart Governance aufdecken, um Missbrauch und Korruption zu enthüllen oder die Funktionsweise der Überwachungssysteme zu stören. Whistleblower innerhalb der Organisationen könnten interne Informationen an die Öffentlichkeit bringen, um Missstände und Übergriffe zu enthüllen.

    Rechts- und Lobbyarbeit werden ebenfalls eine wichtige Rolle spielen, indem Gruppen und Einzelpersonen rechtliche Mittel nutzen, um gegen unfaire oder illegale Praktiken vorzugehen und durch Lobbyarbeit Einfluss auf politische Entscheidungen zu nehmen. Bildung und Aufklärung der Öffentlichkeit über die Risiken und Herausforderungen von Smart Governance wird es Bürgern ermöglichen, besser informiert und kritischer zu denken sowie sich aktiv zu engagieren. Kulturelle Ausdrucksformen wie Kunst und Literatur können zudem eine Plattform für Kritik und alternative Perspektiven bieten. Schließlich wird die Entwicklung und Nutzung alternativer Technologien, wie Open-Source-Software, dezentrale soziale Netzwerke und sichere Kommunikationsplattformen, mehr Autonomie und Datenschutz fördern.

    Michel Foucault betrachtete Widerstand als spezifische Kämpfe gegen die alltäglichen Ausübungen von Macht, nicht als Kampf gegen die Existenz von Macht insgesamt. Machtverhältnisse sind tief in den gesellschaftlichen Strukturen verankert und können nicht einfach beseitigt werden; sie können nicht radikal abgeschafft werden. Dies bedeutet, dass Smart Resistance die Smart Governance nicht vollständig beseitigen wird, sondern vielmehr bestätigt und formt.

    Smart Resistance agiert innerhalb der bestehenden Machtstrukturen, nutzt ähnliche Technologien und Methoden, um gegen spezifische Auswüchse von Macht zu kämpfen. Diese Form des Widerstands hinterfragt und transformiert die Praktiken der Smart Governance, aber sie beseitigt nicht die grundlegende Existenz von Smart Governance. Stattdessen trägt Smart Resistance dazu bei, diese Machtverhältnisse zu überprüfen, zu balancieren und möglicherweise gerechter und transparenter zu gestalten. In diesem dynamischen Wechselspiel zwischen Macht und Widerstand wird Smart Governance nicht abgeschafft, sondern weiterentwickelt und angepasst, um den sich ständig verändernden Anforderungen und Herausforderungen gerecht zu werden.

    In einfachen Worten kann die Smart Resistance dafür sorgen, dass aus Smart Governance keine „Smeart“ Governance wird.

    7. Epilog – Ist Smart Governance wirklich alternativlos?

    Die Welt selbst ist in ihrer physischen, natürlichen Form analog.

    Die meisten natürlichen Phänomene sind kontinuierlich und nicht diskret. Temperatur, Lichtintensität und Klangwellen ändern sich kontinuierlich über Zeit und Raum, was typisch für analoge Signale ist. Die physische Realität besteht aus Materie und Energie in einem stetigen Fluss. Objekte bewegen sich auf kontinuierlichen Pfaden, und Größen wie Geschwindigkeit und Beschleunigung sind ebenfalls kontinuierlich. Lebensprozesse wie Herzschlag, neuronale Aktivitäten und Photosynthese sind Beispiele für analoge Systeme in der Natur. Auch unsere Sinne arbeiten analog: Augen nehmen Licht als kontinuierliches Spektrum wahr, Ohren erfassen Schallwellen stetig, und Hautsensoren reagieren auf Temperatur- und Druckveränderungen.

    Digitale Technologien beruhen auf der Diskretisierung von Informationen, wobei analoge Signale in binäre Codes umgewandelt werden. Diese Digitalisierung ermöglicht präzise Verarbeitung, Speicherung und Übertragung von Daten, was in vielen modernen Anwendungen vorteilhaft ist. Die digitale Welt bietet enorme Vorteile in Bezug auf Effizienz, Genauigkeit und Zugänglichkeit. Die Koexistenz von analog und digital schafft eine hybride Realität, in der wir leben und arbeiten. Die Herausforderung besteht darin, diese beiden Welten harmonisch zu integrieren, um die Vorteile beider Ansätze zu nutzen.

    Der technologische Fortschritt ist eine natürliche Folge menschlicher Neugier, Forschung und Innovation. Wirtschaftliche Anreize und Wettbewerbsfähigkeit treiben oft diese Innovationen voran, wodurch es praktisch unmöglich ist, den technologischen Fortschritt aufzuhalten. Die Herausforderung für die Gesellschaft besteht darin, diesen Fortschritt so zu gestalten, dass er die Bedürfnisse und Werte der Menschen respektiert und fördert. Dazu sind angemessene Regulierung und Governance erforderlich, um Risiken zu minimieren und sicherzustellen, dass neue Technologien im Einklang mit gesellschaftlichen Werten eingesetzt werden.

    Die Smart Governance ist nicht nur eine Reaktion auf den technologischen Fortschritt, sondern nutzt diesen aktiv für die Umsetzung ihrer Ziele. In der modernen Welt, die zunehmend von Technologie und Daten bestimmt wird, erscheint sie oft als unvermeidlicher Schritt in der Evolution von Governance-Modellen.

    Smart Governance basiert in der Regel auf der Analyse und Nutzung großer Datenmengen, um Entscheidungen zu treffen und Prozesse zu optimieren. Dies bedeutet jedoch nicht zwangsläufig, dass diese Entscheidungen von Weisheit geleitet werden.

    ‚Wissen‘ bezieht sich auf die Kenntnis und das Verständnis von Fakten, Informationen und Zusammenhängen. Es basiert auf objektiven Daten und empirischen Erkenntnissen. Im Gegensatz dazu bezieht sich ‚Weisheit‘ auf eine tiefere Ebene des Verständnisses und der Einsicht. Sie umfasst die Fähigkeit, Wissen anzuwenden, um moralische Urteile zu fällen, komplexe Situationen zu verstehen und die Auswirkungen von Entscheidungen auf Menschen und Gesellschaft zu berücksichtigen.

    Wissen ist messbar und oft objektiv, erlangt durch Datenanalyse, Forschung und Erfahrung. Weisheit hingegen ist subjektiver und umfasst emotionale Intelligenz und moralische Einsichten. Während Wissen häufig zur Lösung praktischer Probleme und zur Förderung technologischer Fortschritte angewendet wird, konzentriert sich Weisheit eher auf ethische Orientierung und langfristige Auswirkungen von Entscheidungen. Wissen kann sich schnell ändern und weiterentwickeln, während Weisheit durch Lebenserfahrung und Reflexion über längere Zeit entsteht. Wissen ist das Ergebnis intellektuellen Lernens und Ausbildung, während Weisheit mit Reife und dem Verständnis sozialer und emotionaler Dynamiken verbunden ist.

    Weisheit erfordert die Fähigkeit, Balance und Harmonie in komplexen Situationen zu finden. Sie beinhaltet Empathie und Respekt vor den Bedürfnissen und Wünschen anderer sowie die Berücksichtigung langfristiger Auswirkungen und Konsequenzen. Weisheit bedeutet auch, Gerechtigkeit und Fairness zu gewährleisten. Eine weise Führung erkennt an, dass sich technologische Entwicklungen und gesellschaftliche Bedürfnisse ständig weiterentwickeln. Die Fähigkeit, flexibel auf diese Veränderungen zu reagieren und dabei die Grundprinzipien von Balance und Respekt beizubehalten, ist ein Zeichen von Weisheit.

    In Bezug auf Smart Governance bedeutet dies, dass Daten und technologische Lösungen allein nicht ausreichen, um komplexe soziale und politische Probleme zu lösen. Die Integration von Weisheit ist entscheidend, um sicherzustellen, dass Entscheidungen gerecht, nachhaltig und im besten Interesse der Gesellschaft getroffen werden. Smart Governance sollte daher nicht nur auf das Sammeln und Analysieren von Daten setzen, sondern auch auf die Förderung weiser Führung und ethischer Verantwortung, um eine harmonische und menschliche Entwicklung zu unterstützen.

    Sie sollte die Vielfalt der Lebensstile anerkennen und respektieren, indem es sowohl digitale als auch analoge Optionen für den Zugang zu Dienstleistungen und die Teilnahme am öffentlichen Leben bereitstellt. Bürger sollten die Wahlfreiheit haben, in welchem Maße sie digitale Technologien nutzen möchten, ohne dazu gezwungen zu werden. Ein Recht auf analoges Leben erfordert, dass analoge Systeme barrierefrei und benutzerfreundlich bleiben, einschließlich physischer Behörden und papierbasierter Formulare. Unterstützungsdienste sollten angeboten werden, um Menschen zu helfen, die Schwierigkeiten mit digitalen Technologien haben.

    Der Schutz der Privatsphäre ist besonders wichtig, unabhängig davon, ob Bürger digitale oder analoge Lebensstile bevorzugen. Bildungsprogramme sollten Bürger darin unterstützen, fundierte Entscheidungen über die Nutzung digitaler Technologien zu treffen, während sie die Möglichkeiten eines analogen Lebensstils betonen. Gesetzliche Rahmenbedingungen müssen das Recht auf ein analoges Leben schützen und sicherstellen, dass analoge Optionen in öffentlichen und privaten Dienstleistungen erhalten bleiben. Die Koexistenz von Smart Governance und dem Recht auf ein analoges Leben erfordert eine Balance zwischen technologischem Fortschritt und dem Respekt vor individuellen Lebensstilen. Durch die Integration dieser Prinzipien kann eine weise Führung sicherstellen, dass technologische Innovationen allen zugutekommen, ohne die Vielfalt menschlicher Lebensweisen zu gefährden.


    Quellen (Stand vom 16.07.2024)

  • CBDC – A Love Story with Reservations

    CBDC – A Love Story with Reservations

    People need to understand finance. At the present moment I think that maybe 1% of the population really understands how the financial system really works.
    Yuval Noah Harari, BIS Innovation Summit, May 2024

    Foreword

    At the beginning, there was the need. It is the primal instinct that has existed since the dawn of humanity – the desire to secure our survival, enhance our well-being, and find our satisfaction. These fundamental needs for food, shelter, and social connection were the driving force behind our quest for solutions. We started to grow food together, protect ourselves, and establish social networks.

    As we began to produce goods and services, we specialized in what we did best. This specialization allowed us to perfect our skills and produce more of what we excelled at. If someone was particularly good at making clothes and another excelled at growing food, trade was the logical consequence. Through exchange, we were able to make the best use of our resources and at the same time expand our variety of products and services.

    In the earliest societies, trade began at the local level, where communities exchanged their surpluses to meet their individual needs. Trade not only brought a greater variety of products and services but also economic efficiency. In short, trade is a natural response to our needs and an essential part of human interaction and collaboration. In the past, trade was primarily based on bartering. However, this presented its own challenges.

    Then came money. Money made trade simpler and more efficient by representing a fixed value and eliminating the need for direct bartering. It also allowed us to save and plan for the future. The history of money spans from the Neolithic Revolution about 10,000 years ago to the present, with the monetary system continually evolving and adapting to technological advancements.

    Initially, shells, grain or livestock were used as a means of payment. Later, coins and paper money appeared. Over time, the banking system and modern currencies as we know them today emerged. With the advent of computers, the internet, smartphones and wireless communication in the 21st century, the digitalization of finance began. This led to the emergence of various electronic payment methods such as credit cards, online bank transfers and cryptocurrencies. Since 2021, there has been increasing discussion about the introduction of CBDC (Central Bank Digital Currency) for the general public.

    This article provides an understandable overview of the evolution of monetary systems and key technological developments that will serve as the basis for the future financial system. It sheds light on backgrounds and interesting connections that drive the global efforts to introduce CBDCs as the next milestone in the history of money. We will also take a look at the potential impacts that the introduction of CBDCs could have on our economic, political, social, and cultural life.

    1. Monetary systems and their development
    1.1. What is money?
    1.2. Commodity money
    1.3. Representative money
    1.4. Fiat money

    2. The Fiat system Alice in Wonderland
    2.1. Primary money creation
    2.2. Secondary money creation
    2.2.1. Secondary money creation via customer deposits
    2.2.2. Secondary money creation through lending
    2.3. The influence of central bank policy on the money supply
    2.4. The risks of loose monetary policy and its effects
    2.5. The digitalization trend

    3. Cryptocurrencies All roads lead to Rome
    3.1. Distributed Ledger Technology (DLT)
    3.2. Blockchain-Technology
    3.3. The TokenThe Swiss Army Knife
    3.4. Centralized vs. Decentralized Ledger System
    3.5. Bitcoin (BTC)Get Rich or Die Tryin’
    3.6. Tether (USDT)Safe Haven (In God We Trust)
    3.7. LibraThe King is Dead, Long Live the King!
    3.8. EthereumCode is Law
    3.8.1. ChainlinkOracles, mediators between the gods and humans
    3.8.2. Behind the scenes Shadows on the wall
    3.9. Interim balance

    4. CBDC – The Digital EUROA New Star is Born
    4.1. Wholesale CBDCNature does not make leaps (or does it)
    4.2. Commercial Bank Money Token (CBMT)Those who do not go with the times, perish with time.
    4.3. Retail-CBDC – Heaven Is a Place on Earth

    5. A glance into the futureWelcome to the tokenisation continuum

    6. Epilogue

    1. Monetary systems and their development

    1.1. What is money?

    Money is essentially a tool that facilitates our ability to obtain things we want or need without having to directly exchange them for other items. Imagine you have an apple that you want to trade for a banana, but your friend doesn’t have a banana; instead, he has something else you don’t necessarily need. This is where money comes into play. You can exchange your apple for money. Then, you can use this money to buy a banana from someone else who has bananas. So, money acts as a „middleman” of sorts in the exchange of goods. It allows us to buy and sell goods and services easily without having to worry about the direct exchange of goods.

    The above example works because money serves as a generally accepted medium of exchange. It has an agreed-upon value that people accept and it facilitates the exchange of goods and services, even if they cannot be exchanged directly.

    In this example, everyone involved has confidence in the acceptance of money as a means of payment. If you exchange your apple for money, you assume that you can later use this money to buy something else that you want, such as a banana.

    Money represents value. However, for money to have value, people must trust that it indeed has value and will continue to hold value in the future, which they can utilize -> Money = Value = Trust.

    Every monetary system that has developed throughout history has been a response to the needs and challenges of its time. Let us now take a brief look at how monetary systems have evolved over time.

    1.2. Commodity money

    As already mentioned, monetary systems arose out of the need to facilitate trade and the exchange of goods and services. Compared to moneyless barter, the use of a certain commodity that could be easily exchanged proved to be more efficient. Examples of such means of exchange were shells, livestock, grain, cocoa beans or precious metals such as gold and silver. These objects had an intrinsic value (actual, fundamental value) or were considered valuable, which made them an acceptable medium of exchange. This oldest form of money is called commodity money.

    Fig. 1: Commodity Money

    Precious metals turned out to be particularly suitable for use as commodity money, mainly due to their high durability. However, these metals had to be laboriously weighed and divided as required. Therefore, the next logical development step was the production of coins or bars that had a fixed precious metal content and a specific nominal value.

    1.3. Representative money

    Over the course of history, people found it cumbersome to transport gold bars or other forms of commodity money over long distances. For this reason, paper money eventually emerged from these mediums of exchange, serving as the basis for representative money. Representative money is backed by a physical object or commodity. A simple example of representative money is a gold certificate.

    Suppose you own a gold certificate that states it entitles you to a certain amount of gold, for example, one ounce of gold. The certificate itself is not physical gold but a promise that the holder of this certificate will receive a specified amount of gold from a designated place, such as a bank or a gold repository.

    Now you can use this gold certificate to buy goods or services. For example, if you want to buy a bicycle, you can give the seller the gold certificate. The seller accepts the certificate because he trusts that he can later redeem it at the bank or gold repository for an actual ounce of gold.

    In this way, the gold certificate represents the value of the gold. It facilitates trading without physical gold actually having to change hands.

    Banknotes and coins can also take on the role of the gold certificate in the above example. Suppose, instead of a gold certificate, you have banknotes issued by the bank that represent the value of a certain amount of gold (e.g. 1,000 US dollars for a gold bar). These banknotes can then be used as a means of payment to buy goods or services. The seller accepts the banknotes because they trust that they can redeem them at the bank for the equivalent value in gold if needed.

    The money itself has no intrinsic value but represents the value of the underlying asset and is used as a medium of exchange.

    Fig. 2: Representative money

    Banknotes proved to be not only much more convenient but also allowed people to, for example, spend a dollar bill for a cup of coffee without having to cut their gold bar into a thousand pieces. If they wanted their money back, they simply brought the dollar bills back to the bank to redeem them for the actual form of money, in this case, the gold bar, whenever they needed it. In this way, paper began to be used as a practical and convenient means of payment.

    1.4. Fiat money

    However, in the 20th century, a combination of economic and political factors led to the severance of this link between paper money and the gold it represents.

    During the two World Wars, many countries had to use a large portion of their gold reserves to cover the costs of the war. To inject more money into circulation, some countries temporarily abandoned the gold standard. This led to increased inflation and currency instability.

    During economic crises like the Great Depression or economic downturns, countries couldn’t effectively and flexibly respond due to the rigid monetary constraints of the gold standard. This led to prolonged recessions and increased unemployment.

    After the Second World War, the global economy again experienced strong growth and an increase in international trade. However, the strict limitations of the gold standard proved to be detrimental to the flexibility of monetary policy to respond to such economic changes.

    From a political point of view, the gold standard was seen as a restriction that limited governments‘ freedom of action and prevented them from pursuing a proactive economic policy.

    It suffices to say that governments assured their citizens that they themselves would guarantee the value of this paper money. Society agreed to trade with paper money based solely on the promise of governments. Thus, the so-called fiat currency emerged.

    Fiat money is money that derives its value not from a physical asset such as gold or silver, but from the trust and acceptance of the people and the authority of the government that issues it. A simple example of fiat money is the paper money or coins we use every day. The value of these bills and coins is supported by the trust that they are accepted as a means of payment and guaranteed by the government that issues them. As long as people have confidence in the stability and value of fiat money, it retains its value and function as a medium of exchange.

    Fig. 3: Fiat money

    A compact yet comprehensive explanation and overview of this topic is provided by the video contribution „What is money? The value of money explained simply” by Finance Fellows.

    2. The Fiat system – Alice in Wonderland

    It is well enough that people of the nation do not understand our banking and monetary system, for if they did, I believe there would be a revolution before tomorrow morning.
    Henry Ford

    Over time, the trust model has changed – from the trustworthiness of a material object such as gold to trust in institutions such as central banks.

    In the fiat system, governments determine the value of a currency and declare it as legal tender. It is the government’s responsibility to decide whether a medium of exchange is recognized for financial transactions, commercial settlements, or general trade within a country or jurisdiction.

    The fiat banking system includes a range of banks, including central banks and commercial banks, as shown in the following figure.

    Fig. 4: Banking System within the Framework of the Fiat Financial System

    The central bank is the highest banking authority in a country and is responsible for managing monetary policy and regulating the money supply in circulation. It is the only institution authorized to issue legal tender. The central bank influences the flow of money by setting interest rates, printing money or withdrawing it from circulation, and implementing other monetary policies to promote the stability of the currency and the economy. This also includes monitoring the banking system. Central banks are usually established and supervised as independent institutions by a country’s government. They often collaborate with other government agencies and international institutions to support economic stability.

    Commercial banks are private banks that provide financial services to individuals, businesses and other organizations. They accept deposits, grant loans, facilitate transactions and offer other banking services. These banks use the currency units issued by the central bank to conduct business and settle transactions.

    Each commercial bank is required to maintain an account with the central bank, known as a central bank account. In this account, the commercial bank has a credit balance that it can use to receive cash from the central bank or to transfer cash to it. This credit balance, along with the physical cash issued by the central bank, is collectively referred to as central bank money, as it is exclusively created by the central bank.

    Fig. 5: Central bank accounts of commercial banks

    The central bank balances of commercial banks can arise in various ways. On the one hand, the central bank grants these banks loans, which are then recorded as credit balances on the commercial bank’s account. In order to receive these loans, the commercial banks must deposit collateral such as securities and pay interest on them.  

    Securities are papers that represent a certain value. They can include, for example, stocks, bonds, or investment fund shares.
    Stocks are shares in a company. When you buy a stock, you own a small part of that company.
    Bonds are debt securities. When you buy a bond, you are lending money to the issuer (such as a government or a company) and, in return, receive interest payments and the borrowed money back at a later date.
    Investment fund shares are part of a fund that is managed by a fund manager. This fund invests the money of many investors in a variety of securities in order to spread the risk.

    On the other hand, central bank balances can also arise when the central bank acquires assets such as real estate, government bonds, or gold from commercial banks. In this case, the central bank credits the purchase amount to the account of the respective commercial bank.

    Fig. 6: Creation of credit balances on central bank accounts

    Additionally, commercial banks are required to maintain a minimum balance on their central bank accounts, known as the minimum reserve. This minimum reserve is determined by the central bank. It calculates this by summing the deposits across all commercial bank accounts and multiplying this total by a specified percentage.

    Fig. 7: Minimum reserve banking system

    The function of a central bank balance is to enable commercial banks to provide cash to their customers when needed. For example, when customers want to withdraw money, commercial banks must ensure they have enough cash reserves to meet this demand. This requires commercial banks to access and utilize their balances with the central bank to procure cash.

    Furthermore, the central bank balances of commercial banks are needed for non-cash payments between banks. When one commercial bank wants to transfer money to another commercial bank, this transaction is typically settled through their balances with the central bank.

    Fiat Lux – Money out of Nothing

    In reference to the biblical phrase „Fiat Lux”, the term „Fiat money” refers to money being created „out of nothing” in a sense. The following explanations illustrate this process.

    2.1. Primary money creation

    The process begins with a government mandate. Suppose the government decides to inject an additional 100 million euros into circulation to stimulate the economy. The central bank is responsible for implementing this mandate, for example, by providing this amount to commercial banks as credit. This increases the credit balance on the commercial banks‘ central bank accounts. They can then withdraw a portion or the entire sum in cash from their central bank accounts. To provide the additional cash, the corresponding banknotes are subsequently printed and transported to the vaults of the commercial banks using cash transporters.

    The 100 million euros are literally created out of nothing, as they are not backed by an intrinsic value such as gold or silver. But that’s just the first part of the money creation chain.

    Fig. 8: Primary money creation: In this example, the commercial bank withdraws 20% of the sum in cash to service short-term cash withdrawals by its customers. The remaining 80% of the sum serves as collateral at the central bank and enables the commercial bank to grant loans to its customers.

    2.2. Secondary money creation

    As already mentioned, commercial banks act as intermediaries between the central bank and the general public within the fiat financial system. They accept deposits from individuals and companies and hold a portion of these deposits in reserve. The banks use the rest to grant loans and earn interest income. In this way, the banking system plays an important role in the creation and distribution of money in the economic cycle.

    2.2.1. Secondary money creation via customer deposits

    Suppose Alice has received EUR 100 in cash from her grandmother for her birthday. As she doesn’t want to carry the cash with her all the time, she decides to deposit it in her bank account at Bank A. This converts the cash into book money, also known as scriptural money.

    The bank books Alice’s deposit on the liabilities side of its balance sheet. For the bank, this deposit represents a liability, as it owes Alice EUR 100 in cash. To balance the balance sheet, the bank posts the EUR 100 to its reserves. As a result, the EUR 100 are physically deposited in the bank’s vault and increase the bank’s assets.

    Fig. 9: Conversion of cash into book money

    In most jurisdictions, a bank deposit is not considered a security deposit. This means that the money deposited no longer remains in the customer’s possession. Instead, the money becomes the property of the bank and the customer receives in exchange an asset known as a deposit account (current or savings account). This deposit account is shown as a liability on the bank’s balance sheet. In simple terms, this means that a customer effectively gives their money to the bank, which keeps it in its possession. In return, the customer receives a promise from the bank to get their money back at a later date or as required. This promise is usually documented by the customer’s deposit account, which is a liability of the bank.

    As the money now effectively belongs to the bank, it uses it to make a profit by lending it out further. This is where the concept of fractional reserves comes into play. Minimum reserves are an essential part of banking and are applied worldwide. It states that banks that accept deposits from the public must only hold a portion of these deposits as a reserve in liquid assets. These bank reserves can be held either as cash in the commercial bank’s vaults or as balances in the commercial bank’s account with the central bank. As described above, the central bank of a country has the power to determine a fixed amount of reserves that banks must hold. This amount is referred to as the „reserve requirement” or „reserve ratio”. [Fractional-reserve banking]

    In our example, we assume that the minimum reserve ratio is 10%. This means that Alice’s bank can grant an amount of EUR 90 as a loan. If the borrower buys a bicycle with this EUR 90 and transfers the money to the bicycle seller’s account at Bank B, Bank B has a liability to the bicycle seller in the amount of EUR 90. In order to balance its balance sheet, Bank B transfers this EUR 90 as a reserve, which it books as part of its assets.

    The original EUR 100 in cash has now become EUR 190 in book money. After the next cycle, this will become EUR 271.

     Fig. 10: Secondary money creation via deposits

    After each new round of lending, the amount of book money increases. With a minimum reserve ratio of 10%, up to EUR 1,000 of book money can be created from EUR 100 of central bank money (in the form of cash).

    The maximum amount of book money that can be created out of nothing depends on the minimum reserve ratio. The money creation multiplier is calculated as follows:

    Fig. 11: Money creation multiplier

    This example demonstrates the secondary creation of money from customer deposits at commercial banks. How this process takes place in the case of lending can be illustrated as follows.

    2.2.2. Secondary money creation through lending

    Suppose Alice’s family wants to buy a house and applies for a loan of EUR 100,000 from their commercial bank. The bank approves the loan and posts the amount of EUR 100,000 to the family’s bank account. In this scenario, the bank does not use the money from its customers‘ deposits, but borrows it from the central bank.

    With a minimum reserve ratio of 10%, the commercial bank only needs EUR 10,000 in central bank money to grant a loan of EUR 100,000 in the form of book money. This creates an additional EUR 90,000 in book money out of nothing. The bank books the loan amount on the assets side of its balance sheet, which means that the bank recognizes the claim to repayment of the loan as an asset on its balance sheet. The bank can therefore use part of the approved loan as a basis for granting new loans. This creates new book money, as the bank grants loans that exceed the original deposit. This process is known as the multiplier of lending and contributes to the expansion of the money supply in the economy.

    The family can now pay tradesmen and construction companies, who in turn buy building materials and pay wages to their employees. The book money is then transferred to other commercial banks, which can lend it again according to the principle described in chapter 2.2.1.

    Fig. 12: Secondary money creation through lending

    All in all, this means that considerably more money can be lent than was originally put into circulation.

    2.3. The influence of central bank policy on the money supply

    By defining the minimum reserve ratio, the central bank can indirectly influence the book money supply.

    In addition to the minimum reserve rate, the central bank can influence monetary policy through the so-called key interest rate. The key interest rate is the interest rate at which commercial banks can borrow money from the central bank. If the central bank lowers the key interest rate, the supply of credit is increased and the economy is stimulated, as it becomes cheaper for commercial banks to borrow money and pass it on to companies and consumers. When the central bank raises the prime rate, this usually dampens inflation by making it more expensive to borrow money, which reduces consumer spending and business investment. The prime rate therefore has a significant impact on borrowing costs, the availability of credit and therefore the overall economic environment. That’s the theory, at least.

    A minimum reserve of 10% was assumed in our calculation examples. The European Central Bank (ECB) stipulates a minimum reserve of just 1%.

    Conclusion: Fiat money is created through a combination of government authority, central bank action, commercial bank lending and fractional reserve banking. It is based on trust in the government and the financial system, not on an intrinsic value of the currency.

    2.4. The risks of loose monetary policy and its effects

    Some consider this dynamic as a collective illusion. But what is this claim based on?

    Central banks, by controlling the money supply and influencing interest rates, can lead to over-lending and excessive debt through loose monetary policy. The fiat money system allows banks to lend substantial amounts without adequate collateral or risk assessment, leading to an increase in risky loans.

    This practice enables the creation of complex financial products that can spread and obscure risks, increasing the vulnerability of the financial system to shocks. Additionally, government bailout actions incentivize risky behavior, as banks and financial institutions may assume they will be supported in case of trouble, leading to excessive risk-taking and engagement in risky transactions.

    A balanced money supply in circulation is considered a crucial driver of economic growth. However, a rapid increase in the money supply without corresponding real economic growth can lead to overvaluation of assets such as stocks, real estate, or commodities. This poses the risk of asset bubbles, the instability of which can manifest in the long term and lead to sudden price corrections or economic turbulence.

    Such a scenario emerged in the first few years of this century. For a long period of time, commercial banks speculated that residential real estate prices in the USA would rise inexorably. A loose monetary policy with low interest rates and generous lending made it possible for even people without a regular income to obtain real estate loans. The banks regarded the residential properties they financed as the sole collateral for the loans, which boosted demand for real estate and drove prices up irrationally.

    An economic downturn, accompanied by interest rate hikes by the US Federal Reserve, meant that more and more borrowers were no longer able to service their rising home loan installments. This forced a growing number of people to sell their properties, which in turn led to a collapse in property prices. However, as these properties served as collateral for the loans granted, the house of cards collapsed and the commercial banks suffered massive financial losses.

    Trust between the banks was shaken, causing them to stop lending money to each other. As a result, the renowned investment bank Lehman Brothers was unable to refinance itself, became illiquid and went bankrupt. This chain reaction not only spread to the banking system, but also had an impact on the real economy. Companies suddenly found it difficult to obtain credit and the consequences were inevitable.

    Due to the global interconnection and digitalization of the financial system, the shockwaves of this crisis quickly spread around the world. The crisis in one area of the financial system could quickly spill over into other areas, thus increasing the danger of system-wide risks.

    Conclusion: The structure of the fiat money system facilitated the global financial crisis of 2007-2008, which led to a loss of confidence in the financial system and serious economic consequences worldwide.

    To counteract this severe crisis, both the European Central Bank (ECB) and the US Federal Reserve (FED) intervened massively, lowering the key interest rate to zero percent over extended periods. Their goal was to facilitate commercial banks‘ access to central bank money, circulate it in the form of book money, and stimulate the economy by granting new loans.

    As a result of this policy, the money supply M3 in the Eurozone has continuously grown over the past 20 years – from 4.67 trillion EUR in 1999 to over 16 trillion EUR in 2023.

    The money supply M3 is a measure of the total money available in an economy that is readily accessible. It includes not only cash and coins but also money in bank accounts, savings deposits, short-term investments like money market funds, and similar liquid assets. This broader definition allows for capturing the overall liquidity of an economy, meaning how much money is available in total for purchasing goods or making investments.

    Fig. 13: Development of the money supply M3 in the Eurozone from 1999 to 2023 [statista]

    However, the velocity of money circulation in the Eurozone has decreased over the past 20 years, which can be attributed to various factors. These include the impacts of the 2007-2008 financial crisis, changed credit conditions, the monetary policies of the European Central Bank (ECB), as well as structural changes in the economy.

    Fig. 14: Velocity of money in the Eurozone from 1995 to 2023 [TAGESGELDVERGLEICH.net]

    In macroeconomic terms, the velocity of money is an important indicator of the activity and pace of economic activity in a country or economic region. It shows how quickly money circulates through the economic system and how efficiently it is used for the purchase of goods and services.

    A high velocity of money in circulation often indicates a vibrant economy where many transactions take place and money is passed quickly from one hand to the next. This can be a sign of a high level of economic activity and growth. A faster velocity also means that the same money is used more often, which increases the multiplier effect and helps to increase gross domestic product (GDP).

    On the other hand, a low velocity of money can indicate economic problems. If money circulates slowly and transactions decrease, this can be a sign of economic stagnation or lower demand for goods and services. This can lead to deflationary tendencies and affect economic activity.

    A decreasing velocity of money alongside an increasing money supply can pose a challenge for central banks, as this could indicate that monetary policy measures are becoming less effective. In such a situation, central banks may consider additional measures to increase the velocity of money and stimulate economic activity.

    A decline in the velocity of money could indicate a loss of confidence in the financial system or the general economic situation, leading people to hoard their money or reduce consumption.

    Conclusion: The effectiveness of central banks‘ monetary policy measures is reaching its limits and points to structural problems in the existing financial system.

    2.5. The digitalization trend

    The evolution of money goes hand in hand with the progress of technology. The rapid advancements in areas such as computer technology, the internet, smartphones, wireless communication, and artificial intelligence have made this relationship increasingly complex. These technological advances have contributed to the predominance of digital forms of money in modern societies, supported by complex financial systems and digital transactions. Physical cash is increasingly being replaced by digital alternatives such as debit and credit cards, electronic wallets or apps, as well as digital deposits at commercial banks.

    Since 2020, many of us have become aware that we are living in a time of change, bringing comprehensive transformations that affect society as a whole. The ongoing digitalization across industrial, public, and private sectors has further increased the acceptance of digital currencies. Digitalization also amplifies the concentration of power and data in the hands of a few large financial institutions or technology companies. This raises risks associated with monopolistic practices and data privacy.

    In parallel, the use of algorithmic trading strategies and high-frequency trading in financial markets could lead to unpredictable price fluctuations and more volatile markets, increasing the risk of financial crises. Digitalization has heightened the complexity and opacity of the financial system, especially in the realm of derivatives and structured financial products. This complexity could make it more challenging to detect and manage financial crises.

    Derivatives are contracts that derive their value from the price of other things. There are various types of derivatives, but two of the most common are options and futures. Imagine you go to the market and buy an apple. You know the price for an apple is 1 euro. Now, imagine you could enter into a contract that gives you the right to buy that apple at the same price in a week, regardless of how the price may change in the meantime. That’s an option. A future would be placing an order for an apple at a fixed price, but the delivery is scheduled for a week later. In both cases, people are seeking to hedge against or profit from price changes without immediately buying the apple.

    Now, imagine you’re in a candy store and you want to buy a variety of candies, but you don’t want just one type. So, you ask the store owner to put together a bag with a mix of different candies. Structured financial products are similar. Banks and financial institutions bundle various types of investments like loans, mortgages, or debts and then sell them as a package to investors. These packages have different parts with varying risks and returns. Some parts are safer, while others are riskier. The idea is that investors can choose which parts to invest in, depending on how much risk they want to take. These packages can be very complicated, and sometimes even experts don’t fully understand what’s inside. This can lead to problems if things don’t go as planned.

    Conclusion: The trend towards digitalization exacerbates the structural weaknesses of the fiat financial system and poses new complex challenges for regulatory authorities to ensure the long-term stability of the financial system under these conditions. This raises the question of how the existing fiat financial system should be further reformed.

    Technological development has led to the parallel emergence of a new type of currency, the cryptocurrency. Cryptocurrencies are digital or virtual currencies that are based on cryptographic techniques and serve as a means of exchanging value. Unlike traditional currencies, cryptocurrencies are not controlled by governments or central banks. Instead, they are managed via a decentralized computer network. They use strong encryption techniques and complex algorithm-based processes to secure transactions, ensure independence from central authorities and regulate the creation of new units. Well-known examples of cryptocurrencies are Bitcoin, Ether and Tether.

    Supporters of cryptocurrencies view Bitcoin as a trailblazer for the separation of state and monetary systems, considering this development as one of the most significant revolutions of all time. In fact, since its inception in 2009, Bitcoin has paved the way for the development of numerous other cryptocurrencies and blockchain projects.

    Conclusion: These novel structures upon which cryptocurrencies are based represent another serious challenge to the traditional fiat money system.

    Given these challenges, the statements made by Christine Lagarde, President of the ECB (European Central Bank), and Fabio Panetta, Member of the ECB Executive Board and Chair of the High-Level Task Force for a Digital Euro, appear rather „mild”.

    We need to prepare our currency for the future. We envisage a digital euro as a digital form of cash that can be used for all digital payments, free of charge, and that meets the highest privacy standards. It would coexist alongside physical cash, which will always be available, leaving no one behind.” [Christine Lagarde]

    As people increasingly choose to pay digitally, we should be ready to issue a digital euro alongside cash. A digital euro would increase the efficiency of European payments and contribute to Europe’s strategic autonomy.” [Fabio Panetta]

    At present, non-banks such as private individuals and companies only have access to central bank money via cash. All cashless transactions are processed exclusively via the book money of commercial banks. With the introduction of the digital euro, however, cashless transactions for the general public will also be possible directly with central bank money. As a result, central bank money will be integrated into the entire economic cycle in addition to the commercial banks‘ book money. This suggests that the introduction of the digital euro as a means of payment for non-banks will be accompanied by a profound structural change to the current fiat money system.

    From this perspective, the controversial discussions about the introduction and design of the digital euro as a CBDC (Central Bank Digital Currency) are also understandable given its societal relevance.

    From the perspective of the average citizen, the question arises: Will central bank digital currencies make our lives easier and safer, or is it a risky experiment?

    Before delving deeper into the discussion, it’s important to note that both CBDCs and cryptocurrencies are part of the digital currency revolution. Some key technological elements used in cryptocurrencies can also be employed in CBDCs. These fundamental elements directly impact the characteristics and practical application of CBDCs.

    To get a better understanding of CBDC, we will take a closer look at some key elements of the most popular cryptocurrencies in the next chapter.

    3. Cryptocurrencies – All roads lead to Rome

    Banks must be trusted to hold our money and transfer it electronically, but they lend it out in waves of credit bubbles with barely a fraction in reserve. We have to trust them with our privacy, trust them not to let identity thieves drain our accounts. Their massive overhead costs make micropayments impossible.
    Satoshi Nakamoto, Post im P2P-Foundation-Forum

    The financial crisis of 2007-2008 played a decisive role in the emergence of cryptocurrencies such as Bitcoin. It led to a loss of confidence in traditional financial institutions and the existing fiat money system. Many people were disappointed by the response of banks and governments to the crisis and looked for alternative ways to store their money and conduct transactions that were free from government control and interference.

    Bitcoin was created shortly after the outbreak of the financial crisis in 2008 by an anonymous person or group with the pseudonym Satoshi Nakamoto. Bitcoin’s whitepaper, published in the same year, presented an idea for a decentralized digital currency that works without a central authority or intermediaries. This concept came at just the right time, when confidence in the traditional financial system was shaken. The financial crisis of 2007-2008 therefore served as a catalyst for the emergence of cryptocurrencies, as it raised awareness of the weaknesses of the existing financial system and highlighted the need for alternative ways to store and transact value.

    Cryptocurrencies have the potential to influence and transform the traditional monetary system. To understand why this is the case, we will first explain some basic terms in this context without digressing into technical details.

    3.1. Distributed Ledger Technology (DLT)

    A ledger is a term from the world of accounting and finance that generally refers to a record of financial transactions in the form of a book or database. It is used to record the current status of assets, liabilities and capital of a company or organization. A ledger can be kept either manually or electronically and typically contains entries on income, expenses, transfers and other financial transactions.

    Fig. 15: Ledger – Then and Now

    A traditional ledger is usually centralized, which means that a central authority has control over the data and also centrally controls access to it. This centralization makes traditional ledgers more susceptible to fraud or data manipulation, as they are controlled by a single entity.

    Fig. 16: Centralized ledger

    A distributed ledger is a decentralized database that stores and synchronizes transaction data across multiple locations. Unlike centralized ledgers, which are managed by a single central location, the data in a distributed ledger resides on many distributed nodes or computers that are connected via a network. This decentralized nature ensures greater security as the data is stored on multiple nodes and changes are cryptographically secured.

    Fig. 17: Distributed ledger

    In summary, the main difference between a traditional ledger and a distributed ledger lies in their centralized or decentralized structure, which has implications for the control, security and efficiency of data tracking.

    A centralized ledger requires an authority (bank, cloud, etc.), while distributed ledger technology enables P2P-exchange via computers. (Peer-to-peer (P2P) is a concept that describes a direct interaction or communication between participants in a network without the need for a central intermediary). [iMi Blockchain]

    3.2. Blockchain-Technology

    Distributed ledger technology (DLT) and blockchain technology are closely related, as blockchain is a specific implementation of DLT. DLT can be implemented in various ways in practice, with blockchain technology being the best known and most widespread form. DLT and blockchain technology are often equated, but blockchain is merely a specific variant of DLT.

    You can think of the blockchain as a long, public notebook (ledger). Each page of this notebook represents a block. Within this notebook, all transactions ever made are recorded.

    Each block contains a list of transactions, such as someone sending money to someone else. Once a page of the notebook is full, a new page is added, and this is linked to the previous page. This linking is like a chain that holds all the pages together – hence the name „blockchain”.

    Fig. 18: Schematic representation of a blockchain

    In order to understand the basic operating principle of blockchain technology, it is important to understand how a system is set up that allows all participants to create, verify and update data.

    Peer-to-Peer (P2P) Network

    A peer-to-peer (P2P) network is required to operate a blockchain. This is a network of computers known as nodes, all of which have equal rights. Anyone can join this network (see Figure 17). The P2P network enables the nodes to communicate with each other, exchange information and perform tasks without the need for a central server. These P2P networks can be set up via the global Internet infrastructure, where computers are directly connected to each other.

    Cryptography

    As anyone can join the network, including potentially harmful actors, it is crucial that communication between nodes is secure and unaltered. Cryptography plays a central role here. It enables secure communication in an environment where potential threats exist. Encryption converts information in such a way that it can only be read by participants who have the corresponding „keys” for decryption. In this way, messages can be transmitted securely without unauthorized persons being able to intercept or alter them. This also makes it possible to prove the authenticity of your own messages, even if there are potentially malicious actors in the network.

    In Figure 18, the entry in the „Hash” field represents a cryptographic checksum or fingerprint of the data in the block, while the entry in the „Prev” field (previous hash) is the hash value of the previous block in the blockchain. The use of cryptographic hash functions ensures that the integrity of the blockchain is maintained and that changes to past blocks can be easily detected.

    Consensus algorithm

    The third element is the consensus algorithm. This is like a rule or procedure that ensures that all participants in a system agree on which data is valid and how it can be changed. In a decentralized network like the blockchain, many different nodes or computers communicate with each other. The consensus algorithm helps these computers to agree on a common view, even if they might have different information. This allows them to ensure that the data they receive is correct and that everyone in the network agrees on what to do with this data.

    There are various consensus algorithms used in blockchain networks to ensure that all participants agree on which transactions are valid and which are not. Each of these consensus algorithms has its own advantages and disadvantages and is selected according to the requirements and objectives of the blockchain network. The Proof-of-Work (POW) algorithm gained particular fame with the first cryptocurrency Bitcoin.

    Proof-of-Work (PoW) Algorithm

    What happens with the PoW algorithm? Newly added transactions are recorded in a new block. Before this block can be added to the blockchain, its content must be validated and confirmed. As soon as the block is full, the PoW algorithm is activated.

    In this algorithm, a computer in the network must successfully solve a puzzle (complex mathematical task) in order to validate the content of the new block. The solution to this task is called a Proof-of-Work. As soon as a computer in the network has successfully solved the puzzle and proposed a new block for connection to the blockchain, this block is checked and validated by the other computers in the network. Each computer in the network applies the rules of the Bitcoin protocol to ensure that the transactions are valid and that the new block complies with the consensus rules. These rules include checking factors such as the validity of signatures, the correctness of the transaction data and the accuracy of the Proof-of-Work.

    If the other computers in the network determine that the new block is valid, it is added to the blockchain and the transactions in it are confirmed. If the block does not meet the consensus rules or the transactions are invalid, the block is rejected by the other computers in the network and the process starts again to find another valid block.

    In the Proof-of-Work (PoW) algorithm, as used in Bitcoin, several computers in the network compete with each other to solve this complex mathematical task. Solving the task requires a lot of computing power and energy.

    In Figure 18, the entry in the „Nonce” field (an abbreviation for „Number used once”) represents a random number that is processed together with other data in a block to generate a hash that must meet certain criteria to be accepted as a valid block. This value is directly linked to the PoW algorithm.

    Reward and punishment

    For the proper operation of a decentralized blockchain, another concept from game theory comes to the forefront: „reward and punishment”. In game theory, the term „reward and punishment” refers to the incentives given to players to encourage or discourage certain behaviors. Rewards can be positive incentives that players receive when they perform certain actions or achieve certain goals. Punishments are negative incentives that players suffer when they perform undesirable actions or violate certain rules. These rewards and punishments are used to influence player behavior and encourage the achievement of in-game goals.

    This rewards participants who help maintain the records in the blockchain and add new blocks to the blockchain. In the case of Bitcoin, this reward means that a token, or virtual coin, is awarded every time a consensus is reached and a new block is added to the chain. On the other hand, malicious actors who try to circumvent or manipulate the system lose the computing power spent during the Proof-of-Work process, or risk losing their coins.

    In conclusion, it is important to recognize that the punishment and reward system has an impact on psychological behavior. It changes the rules of the system from something you have to follow to something you want to follow because it is in your own interest to do so.

    Critical P2P-network size

    In reality, a blockchain is considered decentralized if it has enough independent validators or nodes that validate the transactions. These nodes are spread across different geographical locations and no single party has control over the network.

    A summary of the key features of blockchain technology can be found in this video.

    A more detailed visual demonstration of the functionality of a blockchain using the example of financial transactions can be found here and here

    The key strategic benefit of using blockchain technology to solve problems lies in its decentralization. The selection of blockchain technology as a solution method is only justified if the underlying problem is actually due to centralization. If decentralization is not required or desired, it is likely that a centralized solution is more suitable and blockchain technology is not necessary.

    The central question is: Is our world currently ready for the comprehensive implementation of complex blockchain technology that entails decentralization?

    3.3. The Token – The Swiss Army Knife

    When explaining the reward mechanism as an essential component of a blockchain in the previous chapter, the term „token” was used. It makes sense to explain this term in simple language here.

    A token can appear in various forms.

    Generally speaking in the IT sector, a token is a type of digital key or identifier. It is used to confirm the identity of a user or entity and gain access to a system or resource. Think of it like an ID card that you show to get into a building. For example, a token can be a password, a biometric feature (like a fingerprint) or a special code that you enter or present to authenticate yourself. It is used to ensure security and access control in IT systems.

    In the blockchain world, a token is a digital unit with multiple functions. It can serve as a cryptocurrency, be digital representations of fiat currencies on blockchain platforms and be used for transactions. Tokens can also be digital representations of real objects such as real estate or works of art.

    A token can represent not only a digital object, but also its properties. This depends on the type of token and its implementation on the blockchain. Consider, for example, a tokenized work of art. Such a token could not only represent the artwork itself, but also contain information about the artist, year of publication, size, ownership history and even license rights.

    In addition, a token can represent certain functions within a blockchain network, such as usage rights, access rights, voting rights, entitlement rights, etc. Depending on the type and intended use, tokens can have different characteristics and functionalities.

    Fig. 19: Tokenization is the process of transferring the real world or real assets into the digital world by converting them into digital tokens that can be stored on a blockchain or other digital ledger. These tokens then act as digital representations of the real-world assets and can be traded, transferred and managed online.

    Tokens can be seen as a kind of toolkit, allowing digital objects, their properties, and various functions to be combined. These are then used as an element in a predefined algorithm on a digital platform such as a blockchain. This algorithm determines how the tokens can be created, transferred, traded, and used. This logic dictates how the tokens operate and what rules they must adhere to.

    A token could metaphorically be seen as a universal tool that can be used in a variety of situations. Much like a Swiss army knife is versatile and offers different functions, a token in a blockchain network can be used for various purposes, from holding value to executing pre-programmed processes.

    Further information on the topic of tokens and their role in the future financial system is provided in the following chapters.

    3.4. Centralized vs. Decentralized Ledger System

    Fig. 20: Centralized vs. Decentralized Ledger System

    Centralized Ledger System

    The existing financial system is based on centralized ledger systems in which transactions and account balances are managed and monitored by a central authority or institution. Banks, central banks and other financial institutions maintain these centralized ledgers in which all transactions and account movements are recorded.

    In critical situations in which trust in a central authority or institution is called into question, the following aspects of a centralized ledger system come into particularly sharp focus: 

    Single Point of Failure: As a centralized financial system is controlled by a single authority or institution, it carries the risk of a „Single Point of Failure”. If this authority fails or is compromised, this can lead to significant disruptions or failures in the entire system.

    Lack of transparency: Since centralized general ledgers are maintained by a single institution, it is often difficult for outsiders to verify the accuracy and completeness of the data. This can be a particular problem in industries that value transparency and accountability.

    Political or economic pressures: Political and economic influences can affect the trustworthiness and accuracy of centralized general ledgers. For example, a government agency could manipulate data in a centralized general ledger to achieve its own goals.

    Limited accessibility: Since centralized general ledgers are often managed by a single party, access to and use of data may be restricted or denied to external parties.

    Distributed Ledger System

    Cryptocurrencies are based on a distributed ledger system, which offers several advantages compared to centralized ledger systems:

    Decentralization: A decentralized system functions without central authority. Slogans such as „Bitcoin is the people’s money” and „Be your own bank” convey the idea of financial independence, autonomy, self-determination and personal responsibility in financial matters.

    Security and trust: Cryptocurrencies such as Bitcoin use blockchain technology, which makes transactions transparent and tamper-proof. This helps to strengthen users‘ trust in the system, especially after financial crises and fraud scandals.

    Anonymity and data protection: Another reason for the emergence of cryptocurrencies is the desire for anonymity and data protection in financial transactions. Cryptocurrencies generally offer a certain degree of anonymity, as transactions are pseudonymous and do not need to be linked to personal data.

    Accessibility and inclusion: Cryptocurrencies can be used worldwide and enable access to financial services for people who may not have access to the traditional banking system, such as people in developing countries or people without a bank account.

    The world of cryptocurrencies has become extensive and diverse, with almost 20,000 different types of crypto assets in circulation. The article „Top 10 cryptocurrencies by market capitalization” provides a classification of cryptocurrencies based on their market capitalization. In stock market terminology, market capitalization refers to the current market value of a currency or company and is calculated by multiplying the number of units by the price.

    A closer examination of the top three cryptocurrencies in this ranking provides revealing insights into important relationships, characteristics and modes of operation that also play a role in the design and functioning of digital central bank currencies.

    3.5. Bitcoin (BTC) – Get Rich or Die Tryin’

    Bitcoin was designed to serve as a digital means of payment and store of value. It is based on a transparent ledger without a central authority and thus represents a typical use case of a decentralized ledger system based on blockchain technology (see chapter 3.1. and 3.2.). The resulting systemic advantages were discussed in chapter 3.4.

    Due to its decentralized architecture, there is no single computer responsible for managing the ledger (see Fig. 21). Instead, every computer that is part of the blockchain system owns a copy of the ledger. Bitcoin uses a transparent ledger that allows every user to see all transactions and balances at any time. However, the owners of the balances and the senders and recipients of transactions are not directly identifiable. This makes Bitcoin pseudonymous, as all information is open, transparent and traceable, but the identities of the parties involved are not fully disclosed.

    Bitcoin is purely digital and does not exist in physical form like traditional coins or banknotes. Instead, ownership of Bitcoin represents the right to access certain records in the ledger, known as the blockchain, and to send Bitcoin between different addresses. Since Bitcoin is not controlled by a government, authority or bank, the owner retains full control over their Bitcoin money. Only the rightful owner has access to their Bitcoin balance in their digital wallet and can dispose of it.

    Digital wallets are electronic wallets that allow users to securely store, manage and transact with digital currencies such as cryptocurrencies. They work in a similar way to traditional wallets, but for digital currencies, and offer functions such as sending and receiving coins, viewing account balances and managing transaction histories.

    By enabling direct payments between users without intermediaries such as banks, Bitcoin makes international transactions in particular much easier. This eliminates bank fees and the hassle of dealing with exchange rates.

    Fig. 21: Schematic diagram of a Bitcoin blockchain

    Bitcoin, like gold, is designed to be scarce as there is a maximum cap of 21 million Bitcoins that can ever be created. For this reason, some investors view Bitcoin as a long-term investment and a hedge against inflation.

    A concise yet thorough explanation of what Bitcoin is and how to use it can be found in the video „Bitcoin’s explanation: Understanding Bitcoin in just 12 minutes” by Finanzfluss.

    Let’s summarize the key advantages and disadvantages of Bitcoin:

    Fig. 22: Key advantages and disadvantages of Bitcoin [Finanzfluss]

    In most countries, Bitcoin, like other cryptocurrencies, is not considered a legal tender. Instead, Bitcoin is often seen as a digital asset or alternative payment method. This means that the use of Bitcoin for transactions is voluntary and not required by law. However, some countries have recognized cryptocurrencies as a legal payment service or financial instrument, but not as legal tender in the traditional sense.  (El Salvador is currently the only country where Bitcoin is considered legal tender, with limited success. The introduction of Bitcoin as legal currency has not improved the situation for financing and stabilizing public finances in a country where large portions of the population live below the poverty line.)

    For this reason, the use of cryptocurrencies as a medium of exchange, one of the three main functions of money, is often severely restricted. This often results in cryptocurrencies having to be exchanged for a legally recognized fiat currency. This is usually done via a cryptocurrency exchange or an online trading platform. The latter often require user verification during the registration process, which at least partially compromises the advertised privacy when using cryptocurrencies.

    As a virtual currency, Bitcoin does not represent real assets such as cash flow, stocks, company shares, or gold reserves. The value of a unit is determined solely by supply and demand, which can lead to significant price volatility.

    In January 2024, the first so-called Bitcoin spot ETFs were introduced in the USA. These ETFs (Exchange-Traded Funds) are investment funds that are traded on an exchange and use Bitcoin as the underlying asset. They create a link between cryptocurrencies and the traditional financial world. Bitcoin ETFs offer institutional investors a legal and regulated way to participate in cryptocurrency, even if they may not be able to invest in Bitcoin directly. By buying a Bitcoin spot ETF, you are essentially buying a stake in the cryptocurrency itself.

    The decision by BlackRock, the world’s largest asset manager, to enter the Bitcoin spot ETF business has already caused a stir. BlackRock manages a total of 9 trillion US dollars in assets. Even if the company were to invest just one percent of its assets in Bitcoin, this could have a significant impact on the Bitcoin price (Figure 23).

    Fig. 23: Bitcoin-Euro exchange rate (as of 28.04.2024)

    The high volatility, limited acceptance, and certain technical hurdles in handling disqualify Bitcoin as a reliable medium of exchange or store of value for large segments of the population.

    What was presented to the public in 2009 as a „grassroots democratic” alternative to the „elitist” traditional banking and financial system has essentially evolved into speculation fifteen years later. Speculation involves short-term investments, where the period between buying and selling a stock is relatively brief. A speculator relies on short-term fluctuations in the stock market and attempts to predict stock price movements accurately in order to trade accordingly.

    Due to the limited supply of bitcoins, the price and hence the confidence in Bitcoin can be influenced by large institutional investors such as BlackRock or Grayscale, both partners of the World Economic Forum (WEF). It is noteworthy that BlackRock also emerged as winners during the 2007-2008 financial crisis – an irony of fate in the financial world.

    According to the WEF document Understanding the macroeconomic impact of cryptocurrency and stablecoin economics, „these digital currencies could be potential drivers of financial stability, equity, innovation, and market incentives for environmental sustainability”.

    3.6. Tether (USDT) – Safe Haven (In God We Trust)

    Tether is a cryptocurrency based on blockchain technology and designed as a so-called stablecoin. Its goal is to provide a stable value compared to other cryptocurrencies, which experience significant fluctuations in value. Typically, Tether’s value is pegged to an established fiat currency such as the US dollar, with 1 Tether usually equaling 1 US dollar. Tether Limited is the company behind Tether.

    The aim is to combine the benefits of cryptocurrencies (see Fig. 22) with the stability advantages of a fiat currency. An obvious use case would be as a medium of exchange. However, stablecoins like Tether are rarely accepted for everyday purchases in the real world, as only governments can declare a currency as legal tender. Nowadays, stablecoins are mainly used on cryptocurrency exchanges. Traders use them to exchange volatile cryptocurrencies for stable ones and thereby mitigate risk. For example, investors who have invested in volatile Bitcoin and do not want to risk the Bitcoin price falling against the US dollar can simply exchange their bitcoins (BTC) for US dollar Tether (USDT) and retain the dollar value. If they later want to hold bitcoins again, they can easily exchange their USDT back into BTC. Investors can convert profits into Tether without having to leave the crypto ecosystem. They can „park” their cryptocurrencies in Tether to await value fluctuations or transfer their crypto assets without losses in value.

    Tether thus assumes the function of a safe asset in the virtual crypto ecosystem. A „safe asset” is an asset that is considered a safe haven for investors, especially in times of economic uncertainty or turbulence. Such assets are usually characterized by stability, low volatility and high liquidity.

    Transactions in USDT are considered both fast and cost-effective. Additionally, cross-border payments in Tether can easily transition into another target currency.

    Due to these characteristics, Tether is also hailed as a bridge between the virtual cryptocurrency world and the real financial world. In the 2021 WEF article titled „Cryptocurrencies are democratizing the financial world. Here’s how”, one finds the following:

    Cryptocurrencies, such as stablecoins, which are cryptocurrencies pegged to other assets such as the US dollar, can now act as a safer and more trustworthy way of safeguarding people’s assets.

    For example, if you were living in Nigeria, you would have seen your net worth drop by nearly 50% since 2016 as the Nigerian Naira dropped from roughly 200 Naira per US Dollar to nearly 400 Naira per US Dollar by the end of 2020. However, if those assets has been kept in a stablecoin like Tether (USDT), a stablecoin pegged to the US Dollar, they would have been safeguarded from any drastic devaluation.

    Cryptocurrencies and blockchain technology, paired with the global growth of mobile and indeed internet adoption, are tempering rising financial inequalities.

    And it is not inconceivable to imagine that in the coming decades, the world will have a much more democratised and accessible financial system. Financial inclusion could be achieved thanks to cryptocurrencies.

    In developing countries and emerging markets in particular, where national currencies are very volatile and the banking system does not offer nationwide coverage, such concepts are gaining increasing acceptance (Figure 25).

    Fig. 25: Acceptance of cryptocurrencies [statista]

    How do stablecoins like Tether manage to keep their value stable while other cryptocurrencies are subject to strong price fluctuations?

    The stability of money, whether physical or digital, relies on the trust of its users. If the market doubts the value of USDT, people will quickly sell off their USDT, leading to a price decline. To maintain this trust, companies like Tether, for example, deposit assets as collateral for their coins. These reserves serve as a guarantee that the company will uphold its promise and that its coins indeed have the specified value. In the case of Tether, each USDT is backed by US dollar reserves and other assets. In addition to fiat currencies, stablecoins can also be backed by other assets, such as gold, oil, or other cryptocurrencies.

    Unlike Bitcoin, Tether (USDT) does not have its own blockchain. Instead of using its own blockchain, Tether is issued on various existing blockchain platforms. As already explained in chapter 3.3., a token is generally a digital unit that is created and issued on a blockchain platform and represents a specific value or function. In relation to Tether, USDT is a token that represents the value of one US dollar. Each USDT token should therefore always have the value of one US dollar. These tokens are issued on various blockchains and can be stored, transferred and traded in wallets, just like other cryptocurrencies and digital assets.

    USDT (Tether) can be considered a form of tokenized money. Tokenized money refers to the digital representation of traditional fiat currencies or other assets in the form of tokens on a blockchain.

    A USDT token is typically generated through a deposit process at Tether Limited or one of its partner banks. A user sends a certain amount of US dollars to Tether Limited or deposits it in a special account. Upon receipt of the deposit, Tether Limited then issues the corresponding amount of USDT tokens backed by the deposited US dollars.

    For example, if you have a multi-chain wallet, you can transfer your USDT tokens to it. A multi-chain wallet supports multiple blockchains and allows you to manage different cryptocurrencies on different blockchains in a single wallet. This allows you to carry out transactions on the supported blockchain networks.

    Fig. 26: Tether (USDT) is available on various blockchains. A „cross-chain transfer” refers to the transfer of cryptocurrencies or digital assets from one blockchain to another.

    By being able to use Tether on different blockchains, users can benefit from the different functions of the individual networks. 

    By being supported on various blockchains, Tether also increases the liquidity and interoperability of the currency, as it can be exchanged between different blockchain platforms. This contributes to the further adoption and acceptance of Tether, allowing users to leverage the benefits of a stable digital currency in different contexts.

    However, there are also disadvantages to this structure. The company ensuring the security of the stablecoin assumes the role of a private „virtual central bank”. In the case of USDT, this is Tether Limited. In addition to the risks of misappropriation and the difficulty in proving that the company has enough assets to back the amount of coins in circulation, the question arises of how long-term adequate security can be ensured, thus maintaining public trust.

    Ultimately, the question of regulation arises: Will regulatory authorities allow companies to create an asset that resembles legal tender without any supervision?

    Chainalysis – Making the invisible visible

    From today’s perspective, the use of stablecoins seems to be tolerated as long as it is limited to specific geographic areas and clear conditions of use are established. A report by Chainalysis titled „The 2021 Geography of Cryptocurrency Report” describes how cryptocurrencies are being introduced in some Latin American countries in response to economic hardships. The aim is to help people in Latin America mitigate their economic difficulties through the use of stablecoins. One reads:

    So many Latin American countries have economic instability, so the people there aren’t really interested in trading cryptocurrency or getting exposure to Bitcoin because it’s going to $80,000… People are trying to survive, so they need the ability to switch between their local currency and cryptocurrency to preserve its value.… Remittances are another driving force behind Latin American cryptocurrency adoption. This isn’t entirely surprising, as traditional, fiat currency remittances are hugely important to many Latin American countries. According to the World Bank, incoming remittances in 2020 represented 2.4% of GDP for Latin America as a whole, more than any other region the organization tracks besides South Asia. In countries like El Salvador and Honduras, remittances represent over 20% of national GDP. … 35% of Venezuelan households receive remittances from abroad. The Venezuelan bolivar is essentially worthless due to hyperinflation. Cryptocurrency provides a way for Venezuelans who have left to send money back, and the receivers can then hold that money in a more stable currency.

    GDP stands for gross domestic product. It is an important economic indicator that measures the total value of all goods and services produced within a country’s borders during a given period, usually a year. GDP is often used to evaluate and compare a country’s economic performance.

    Chainalysis is a blockchain data platform that provides tools and research for government agencies and financial institutions. Its goal is to shape a global economy based on blockchains.

    We are paving the way for a global economy built on blockchains. Businesses, banks, and governments use Chainalysis to make critical decisions, encourage innovation, and protect consumers.

    A 70-second introduction to Chainalysis can be found here:

    This brief introduction demonstrates very clearly that user privacy is essentially based on the concept of „pseudonymity”. A kind of asymmetrical protection of privacy is applied. While the majority of users do not know the true identity of a person behind a pseudonym (e.g. public address/key) and thus privacy (e.g. private address/key) is maintained, it is possible for a select group of people or institutions to determine the true identity through special knowledge and access to appropriate technologies. Therefore, pseudonymity does not offer complete anonymity, but provides a degree of privacy from the general public while allowing traceability for certain authorized parties.

    This is an important point. The ability to determine the identity of a person behind a pseudonym contributes in some ways to the further concentration of knowledge and power. Individuals or organizations with the resources and technical ability to decode identity can thereby exercise increased control over the information and actions of those using pseudonyms. This can be particularly problematic if this power is in the hands of a few powerful institutions or governments, which can lead to an imbalance in terms of data protection and individual freedom.

    In this regard, it’s important that the use of pseudonymity in society and in technological systems is accompanied by appropriate protective mechanisms and privacy regulations to prevent the abuse of knowledge and power and to preserve individual privacy. In most cases, governmental or regulatory institutions are responsible for establishing and enforcing privacy regulations and protective mechanisms against data misuse. These institutions are often established by the respective governments.

    The use of stablecoins as virtual „safe assets” in economically challenging situations has sensitized large parts of the population in affected regions to the use of digital currencies and, in a way, prepared them for it. As a result, technological infrastructures have been developed in the background, and the acceptance and handling of virtual „safe assets” as a form of tokenized money have been tested and evaluated. At the same time, corresponding analysis and monitoring tools have also been tested and improved to ensure the necessary depth of data extraction.

    The document „The Current State of Central Bank Digital Currencies (CBDCs) in 2023” by Chainalysis provides further insights into how the crypto ecosystem serves as a „sparring partner” or „training ground” in the ongoing development and evolution of the fiat financial system.

    Blockchain technology has made digital payments faster and easier than ever, and allowed for the proliferation of new cryptocurrencies for different use cases, with unique traits like decentralization, immutability, pseudonymity, and more. These innovations have demonstrated that global finance is ripe for change – and governments have taken note. Central banks across the globe have already begun remodeling financial systems for the internet age.” 

    3.7. Libra – The King is Dead, Long Live the King!

    What would happen if a stablecoin was backed not just by one company, but by a consortium of companies including Master Card, Visa, Stripe, eBay, PayPal, Vodafone and Facebook (Meta)?

    Here is a summary of a few key figures:

    MasterCard and Visa: Both are the world’s best-known credit card companies offering payment services for credit and debit cards. They facilitate the electronic transfer of money between consumers, merchants and financial institutions worldwide and enable transactions in various currencies. According to statistical data for 2023, Visa leads with over 4.3 billion cards worldwide, followed by Mastercard with 3.3 billion cards. [Free credit card]

    Stripe: Stripe is a leading financial technology company that provides online payment solutions and payment processing platforms for businesses. Today, millions of businesses of all sizes use Stripe to accept payments online and in person, make payouts, automate financial processes and ultimately increase revenue.

    eBay: eBay is one of the world’s largest online marketplaces where people and businesses can buy and sell goods and services. eBay provides a platform for e-commerce where millions of transactions take place every day. In 2023, 132 million active customers were counted on eBay. [statista]

    PayPal: PayPal is a well-known payment service provider that enables consumers and businesses to send and receive money online. It offers secure payment solutions for e-commerce transactions and enables users to transfer money electronically, pay bills and make online payments. The number of active accounts of the online payment service PayPal amounted to 426 million in the fourth quarter of 2023. [statista]

    Vodafone: Vodafone is a global telecommunications company headquartered in the UK. The company is active in many countries, operating mobile networks in over 20 countries and fixed-line or broadband services in many more. Vodafone is known for its global telecommunications services, innovative technologies and commitment to providing connectivity and communications solutions to individuals, businesses and governments around the world. Vodafone currently has over 300 million mobile customers worldwide.

    Facebook (Meta): Facebook is a global social network and one of the largest technology companies in the world. Facebook’s main goal is to connect people and facilitate the exchange of information, content and ideas. Facebook also offers advertising and marketing services for companies, enabling them to advertise their products and services in a targeted manner and engage with their target audience. In the fourth quarter of 2023, the number of daily active users on Facebook was just under 2.11 billion. [statista]

    The combination of substantial financial resources and cutting-edge technologies within a global network of more than 4 billion users could result in privately issued cryptocurrencies seriously challenging or even partially displacing central bank and commercial bank money as a means of payment. Consequently, central banks might cede control over the payment system to a private corporate group whose network effects could be extensive, powerful, and potentially harmful. Ultimately, this could undermine monetary sovereignty and jeopardize financial stability.

    In June 2019, this very scenario threatened to become reality when Facebook (now Meta) announced the project called Libra. Libra was to be a cryptocurrency backed by assets, i.e. a stablecoin. This was to serve as a means of payment for members of the global Libra Association network, which included the companies mentioned above. [wikipedia]

    Was this a real revolution or just a serious message? And if so, by whom was it addressed to whom?

    As essential members of the Libra Association, Facebook (Meta), Visa, MasterCard, Stripe and Paypal are all partners of the World Economic Forum (WEF).

    The World Economic Forum is the international organization for public-private cooperation. It provides a global, non-partisan and non-profit platform for meaningful connections between stakeholders to build trust and initiatives for cooperation and progress. In a world characterized by complex challenges, the World Economic Forum engages political, business, academic, civil society and other community leaders to shape global, regional and industry agendas. The WEF aims to foster international cooperation to address the great challenges of our time and plays an important role in shaping global political, economic and social developments. [weforum]

    On July 15, 2019, Facebook announced that the currency would not be launched until all regulatory concerns had been addressed and Libra had the necessary approvals. On September 18, 2019, during a meeting with leading Senate Democrats, Mark Zuckerberg stated that Libra would not be introduced anywhere in the world without prior approval from U.S. regulators.

    A revolution truly looks different. The World Economic Forum member’s message to policy makers and central bankers worldwide that it is time to practically implement the extensive knowledge and experience gained from the crypto ecosystem over the last 10 years into the further development of the fiat financial system was quickly taken up.

    On the one hand, the Libra initiative met with considerable resistance from governments, central banks and regulatory authorities worldwide. They expressed concerns about the potential impact on monetary policy, financial stability, anti-money laundering and data protection. In response to this opposition and regulatory pressure, the project was formally renamed and restructured. Within just 6 months of the project’s announcement, Visa, MasterCard, Stripe, PayPal, eBay and Vodafone withdrew from the initiative. Meta finally abandoned the project in January 2022, citing regulatory hurdles. Regulatory authorities around the world intervened and banned privately issued cryptocurrencies as legal tender.  [wikipedia]

    On the other hand, the message led to the recognition that the introduction of central bank digital currencies (CBDCs) is essential for the further development of the fiat financial system. The fact that this is a strategic decision with global implications is highlighted by the Atlantic Council’s involvement in coordinating this process.

    The Atlantic Council is an independent, nonpartisan think tank and forum for policy discussion focused on transatlantic relations. The Atlantic Council addresses a wide range of issues, including security policy, international relations, economic issues, technology, energy, the environment, and global governance. Atlantic Council members include political leaders, government officials, former heads of state and government, senior military officials, business leaders, academics, and other public figures. [atlanticcouncil]

    The Central Bank Digital Currency (CBDC) Tracker, published by this think tank in July 2021, provides an overview of the rapid development of digital central bank money worldwide. The interactive database now covers 130 countries, which together represent 98% of global gross domestic product (GDP).

    The discussion is no longer about whether CBDC will be introduced in the individual countries, but rather about when and how this will happen.

    3.8. Ethereum – Code is Law

    In chapter 3.2, we learned that blockchain technology was created by combining existing technologies such as distributed ledger technology (DLT), cryptography and consensus algorithms. The result is a system that can make decisions without a central authority. Bitcoin is a concrete example of the application of such a system (see chapter 3.5.). Blockchain technology can be seen as a system on which various applications and programs can be developed and executed. A currency such as Bitcoin is just one possible application of this.

    With technology that can decentralize the handling of money, people are beginning to explore what other applications or tasks that are currently centralized could be better accomplished in a decentralized system. But a truly decentralized system requires a large network of computers to run it. In the beginning, the Bitcoin blockchain was the only network in existence, and it was quite limited. This was because the programming language used for Bitcoin is specifically defined for this one application. It only has a small set of commands that the computers in the network can understand and execute (e.g. who sent how much money to whom).

    A programming language is a formal language that is used to write instructions that can be executed by a computer. It enables a programmer to design and implement algorithms to solve specific tasks or problems.

    To solve versatile and complex tasks, one needs a „complete” programming language and a specialized computer network that understands this language. A programming language is considered „complete” if it exhibits the following characteristics:

    1. It can store information and work with it.
    2. It can make decisions and do different things depending on what is happening (for example, „if this, then that”).
    3. It can perform certain actions repeatedly as long as necessary (like a loop).
    4. It allows certain additional tasks to be defined and executed whenever they are needed.

    If a programming language possesses all these properties, it can perform any possible computation. Consequently, it can solve any computable function or problem.

    Let’s say you want to create your own decentralized program, similar to Bitcoin, at home. To do this, you first need a deep technical understanding of the underlying concepts of cryptocurrencies such as blockchain, consensus algorithms, cryptography, transactions and mining. You need to master a programming language that allows you to implement the consensus algorithm, transaction processing, wallets, network functions and other necessary components in a software algorithm. Last but not least, you need to set up a huge network of computers to run this software. That sounds like a „Mission Impossible”, doesn’t it?

    In such a situation, Ethereum can be at your side. Ethereum is an open-source blockchain platform that allows developers to create and run decentralized applications (DApps). It was conceived by Vitalik Buterin in 2013 and officially launched in 2015. If you want to create a decentralized program that no single person controls – not even you, even though you wrote it – all you need to do is learn the Ethereum programming language Solidity and start coding. Solidity is considered a „complete” programming language that enables the development and execution of complex applications on the Ethereum blockchain. The Ethereum platform runs thousands of independent computers, which means that it is fully decentralized. Once a program is deployed on the Ethereum network, these computers, also known as nodes, ensure that it is executed as intended. Ethereum forms the infrastructure for the global operation of DApps.

    In Chapter 3.5., we explained the Bitcoin blockchain using the analogy of a public notebook (ledger) that can be viewed by anyone. All transactions that have ever taken place are recorded in this ledger. Each page of this ledger corresponds to a block that contains a list of transactions, such as money transfers from one person to another.

    Like Bitcoin, the Ethereum network can be used as a platform for cryptocurrencies. Within the Ethereum ecosystem, Ether serves as a cryptocurrency. Ether is a token that was created and is used specifically for use on the Ethereum platform. As the primary means of payment of the Ethereum network, Ether enables transactions between users. It can be used to transfer value or make payments for services and products. In fact, the cryptocurrency function of Ethereum is only of secondary importance.

    Ether is primarily used as a fee charged for every computation that occurs within the Ethereum network in connection with a transaction. In the Ethereum ecosystem, nothing is free! These fees make Ether the primary requirement for creating or using DApps (decentralized applications) on the Ethereum blockchain. The collection of fees serves to protect the Ethereum network from congestion. As mentioned earlier, Ethereum utilizes a complete programming language that enables complex computations. Without fees, a malicious actor could easily attempt to disrupt the network by executing an infinite loop within a transaction without being penalized. Fees ensure that such actions incur costs, deterring potential attackers and safeguarding the network against deliberate attacks.

    Ethereum allows people to connect directly with each other without the need for a central authority. It is a network of computers that connect to form a powerful „decentralized supercomputer”. The combined computing power of the network nodes can be used to perform complex calculations or provide resources for decentralized applications (DApps) running on the platform. In this way, Ethereum can support a variety of use cases without being controlled by a central instance.

    Fig. 27: Ethereum-Blockchain

    Ethereum is a protocol for human coordination. Coordination is a game, but not one that is played to win. Coordination is more like tending a garden, where one works only that the garden may continue to thrive.
    ethereum foundation

    In the Ethereum worldview, human coordination is seen as a game that follows certain rules. These rules are encoded in „Smart Contracts”. A Smart Contract is essentially like a digital contract, an automated contractual solution that executes specific tasks once certain criteria are met.

    To make a Smart Contract accessible to end-users, DApps are necessary to provide a user interface through which users can interact with Smart Contracts. DApps combine a Smart Contract and a user interface, thus assuming the role of mediating between the user and the Smart Contract. Without a DApp, it would be difficult for most users to utilize a Smart Contract, as it requires technical knowledge and the ability to interact directly with the blockchain.

    A DApp ensures that users can provide the necessary information to execute transactions or trigger actions in the Smart Contract, and it presents the results or the current state of the Smart Contract in an understandable manner for the user.

    Both smart contracts and DApps are written using the Solidity programming language. Solidity is a programming language developed specifically for the creation of smart contracts on the Ethereum blockchain. By using Solidity, developers can write smart contracts that define the rules and logic of the DApp and have them executed on the Ethereum blockchain.

    To better understand this process, one can examine the types of accounts in the Ethereum network.

    Account types in the Ethereum network

    There are two types of accounts on the Ethereum network:

    Externally Owned Accounts (EOAs): These accounts are created and used by users of the Ethereum network. They can hold Ether (Ethereum’s cryptocurrency) and carry out transactions between external accounts. EOAs have an address and a private key. Possession of a private key means control over access to the contents of the account and authorizes the user to initiate transactions. The EOA is managed via an Ethereum wallet. The Ethereum wallet can be seen as a gateway to the Ethereum system. It holds your keys and can generate and transfer transactions for you.

    If a user wants to create a DApp, they can use the Ethereum programming language Solidity to write so-called smart contracts. As described above, these smart contracts represent the program logic according to which decentralized applications (DApps) are operated on the Ethereum platform. Once the smart contract has been created, it is translated into „bytecode”, a language that computers can understand. The smart contract prepared in this way can then be registered in the Ethereum blockchain, which requires the creation of a special transaction. Once this transaction has been validated, the bytecode of the smart contract is stored in the blockchain. As soon as the contract is entered in the blockchain, it receives an Ethereum address (similar to wallets). This creates the second account type in Ethereum – the contract account.

    Contract accounts: Contract accounts are special accounts that contain the bytecode of smart contracts or DApps. These accounts also have an address, but do not have a private key. When a user sends a transaction to a contract account, the code defined in the smart contract is executed. This allows users to trigger certain actions or send instructions to the smart contract to perform various functions. Transactions to contract accounts can contain Ether, data or both. If they contain ether, these are credited to the contract account. If they contain data, these can be used when executing a function of the contract.

    Fig. 28: Account types in the Ethereum network

    Transactions on the Ethereum network

    It is essential to understand the basic difference between Externally Owned Accounts (EOAs) and contract accounts. An EOA can send messages to other external accounts or contract accounts by creating and signing a transaction with its private key. A transaction between two EOAs is simply a transfer of value. However, when a message is sent from an EOA to a contract account, it triggers the contract account’s code and allows it to perform various actions such as token transfers, writing to internal storage, generating new tokens, performing calculations, etc.

    Unlike EOAs, contract accounts cannot initiate new transactions on their own. Instead, they can only send transactions in response to other transactions (from an EOA or contract account) that they have received.

    Fig. 29: Transactions on the Ethereum network

    Every action that takes place on the Ethereum blockchain is always initiated by transactions sent from externally owned accounts.

    The Ethereum blockchain works like a machine based on transactions. Depending on the instructions and inputs given to it, it changes its state. In computer science, the term „state machine” refers to a system that goes through different states and switches between these states depending on input. For example, when a new contract account is created or Ether is transferred for transactions with an existing contract account, the state of this global computer changes by recording the transaction and updating the balances of both the externally owned and contract accounts.

    Fig. 30: Ethereum as a state machine

    Ethereum’s state machine can be described in simplified terms as follows: It starts with a „Genesis state”, similar to a blank sheet of paper, before transactions take place. When transactions are executed, this Genesis state changes to a final state. This final state represents the current state of Ethereum at any point in time.

    The state of Ethereum comprises millions of transactions grouped into blocks. Each block contains a collection of transactions and is chained to its previous block.

    Fig. 31: Executed transactions are stored on the blockchain and alter the state

    To enable the transition from one state to the next, a transaction must be valid. To be considered valid, a transaction must go through a validation process known as mining or proof-of-work. Mining is a process in which a group of nodes (i.e. computers) use their computing power to create a block of valid transactions. Each time a miner successfully validates a block, new Ether tokens are generated and paid out to them. The basic principles are similar to those described in Chapter 3.2.

    CODE IS LAW

    Smart contracts are stored on the Ethereum blockchain, which means they are secure and immutable. The rules and conditions of the contract cannot be altered. In the Ethereum blockchain, all transactions and state changes are transparent and traceable.

    Anyone can check the transaction history of a specific smart contract and retrieve the current status by checking the corresponding data in the blockchain.

    In the video „CODE IS LAW? Smart Contracts Explained” by Finematics, the term „smart contract” is explained in detail yet in a way that is easy to understand.

    Let’s take a closer look at some aspects of smart contracts. As mentioned in the video above, a smart contract covers all key areas of a contract: from the identification of the contracting parties, to the subject matter of the contract, to performance, obligations, terms and duration, as well as administration and enforcement. A smart contract on the Ethereum platform is absolutely precise. It follows the pre-programmed logic down to the smallest detail and is executed deterministically.

    Deterministic refers to a concept used in various disciplines such as mathematics, philosophy, computer science and physics. It essentially means that an event or series of events is completely predictable, without chance or uncertainty. In computer science, „deterministic” refers to programs or algorithms that always produce the same result given a set of inputs. This means that the execution of a deterministic algorithm always leads to an unambiguous and predictable result, regardless of other influencing factors. However, the real world is often influenced by various, sometimes unpredictable factors. In many cases, deterministic models are only an approximation of reality.

    Since the smart contract is stored on the Ethereum blockchain, it practically allows for no retroactive changes. This ensures that all executions of the contract are handled with absolute precision, guaranteeing that the contract performs exactly as the author intended. This aligns with the principle of „Code is Law”. A smart contract on Ethereum possesses ultimate authority, and no one can override the contract.

    The execution of smart contracts on a decentralized platform opens up new perspectives for shaping not only the financial system but also for implementing specific political agendas. This development can serve as a foundation for innovative financial services and have significant impacts on transactions both from the government to the citizen (Government-to-Citizen) and from citizens to the government (Citizen-to-Government).

    3.8.1. Chainlink – Oracles – mediators between the gods and humans

    Smart contracts are contracts that are based on and dependent on data. The provision of correct data is crucial to ensure that the agreement is executed exactly as expected. The accuracy of the data directly influences the results of a smart contract.

    It is important to understand that blockchains have certain isolating properties within the World Wide Web. What are the reasons for this?

    Blockchains are extremely secure and reliable due to certain design principles. A blockchain achieves consensus by using data that is already stored in its own ledger. The blockchain’s ledger is considered trustworthy because it uses decentralization to validate all data redundantly using all nodes in the network. Decentralization also ensures the integrity of the consensus algorithm, as changes to the protocol rules are only possible with the consent of a significant portion of the network (e.g. 51%). These properties provide strong guarantees for the determinism of computations and data storage, especially in highly decentralized networks.

    However, blockchains are less suitable for answering questions that require subjective assessments or use external data that is not easily accessible to every node in the network. For example, questions such as „What is the current EUR-USD exchange rate?” or „What is the weather like in Berlin?” could lead to different answers depending on the data source used and the time of the query. As a result, the question arises as to which answer should be considered the correct one and how its accuracy can be verified. Furthermore, any change or adjustment to the blockchain network’s data sources requires extensive coordination to ensure that all network nodes agree and update their software accordingly.

    For this reason, blockchains are not able to independently establish a connection to real data and events.

    Fig. 32: Blockchains are not able to independently establish a connection to real data and events.  [What Is an Oracle in Blockchain?]

    Smart contracts and Dapps running on the Ethereum blockchain can only directly access data that exists on the Ethereum blockchain. As the Ethereum ecosystem is still at an early stage of development and due to the specific design principles of blockchains, the amount of validated data that can be used directly by smart contracts is relatively limited. The main focus is on various areas, including:

    • Development of decentralized financial services (DeFi) with cryptocurrencies
    • Applications that focus on digital property
    • Gaming
    • Metaverse
    • Social Networks
    • Decentralization of developer tools as a basis for further technological developments

    This is the dilemma: most of the data from the real world is not on the blockchain. Without access to this data, the use of smart contracts would be severely limited. In order to be able to use smart contracts in everyday life, they require external connectivity to communicate with other systems and confirm the occurrence of real events. This in turn entails risks and challenges, particularly with regard to the security and trustworthiness of the data. The benefits of using smart contracts therefore conflict with the difficulties of integrating external data.

    This is where the so-called Oracle services come into play.

    In mythology, an oracle refers to a divine or spiritual entity that serves as an intermediary between the gods and humans and as an entity that acts as a transmitter of information.

    In the blockchain context, oracle services are external services or protocols that connect smart contracts with data or information from the real world. Since smart contracts on blockchain platforms such as Ethereum cannot directly access external data sources, oracle services are required to close this gap.

    Oracle services act as an intermediary between the blockchain and external data sources such as APIs, IoT devices, traditional databases or other blockchain networks. They collect and deliver real-time data or events to smart contracts so that they can automatically execute actions based on this data.

    An API (Application Programming Interface) is an interface that makes it possible to retrieve data from an external service or system. This enables seamless integration of external data into applications and facilitates the development of applications that rely on up-to-date information.

    An IoT (Internet of Things) device is a physical device or machine that is connected to the internet and can send and receive data via the internet. The use of IoT devices enables the automation, monitoring and optimization of processes and systems in various areas, which can lead to efficiency gains, cost savings and new opportunities for innovation.

    For example, an oracle service can deliver information such as weather data, stock market prices, the delivery status of parcels or the results of sporting events to a smart contract. This makes it possible for smart contracts on the blockchain to access up-to-date information and react accordingly without having to rely on manual input from users.

    Oracle services are therefore crucial for the functionality and benefits of smart contracts in use cases that rely on real-world events or external data.

    Oracles respond to requests from smart contracts for off-chain data. They retrieve this data from external systems and convert it into a format that can be read by the blockchain. In the process, the data is validated and a cryptographic proof that certifies the performance of the Oracle service is created. Depending on the use case, the Oracle off-chain can perform calculations based on the available data. The data prepared in this way is then transferred to the blockchain for further processing by the smart contract. If the smart contract needs to transfer information to off-chain systems, the Oracle converts it back into a readable format for the respective external system and sends it to the external system. A schematic representation can be found in the following figure.

    Fig. 33: Oracles combine inputs and outputs with blockchains to create hybrid smart contracts. [What Are Smart Contracts and How Do They Work?]

    Smart contracts that access off-chain data are also referred to as hybrid smart contracts. This distinction is not accidental and is related to the development of the World Wide Web (WWW). The individual development stages of the WWW are summarized in the following illustrations.

    Fig. 34: Development stages of the WWW – Web 1.0

    In Web 1.0, the internet consisted mainly of static websites owned by companies. There was little interaction between users and individuals rarely produced content. This led to it becoming known as the „read-only Web”.

    Fig. 35: Development stages of the WWW – Web 2.0

    With the development of Web 2.0, the internet shifted to a „read-write Web”. Companies began to offer platforms for the exchange of user-generated content and interaction between users. However, some large companies began to control a disproportionate share of the traffic and value generated on the internet as more and more people went online. This means that most of the Internet that people know and use today is based on trust in a handful of private companies acting in the public interest.

    Fig. 36: Development stages of the WWW – Web 2.3

    The term Web 3.0 was coined by Ethereum co-founder Gavin Wood shortly after the launch of Ethereum in 2014. A central feature of Web 3.0 is decentralization, in which power and control are transferred from centralized institutions to users and the community. Web 3.0 thus strives to develop the internet in a direction where users have more autonomy and control over their own data and interactions. Symbolically, Web 3.0 stands for „read, write, own”. Blockchain technology is often seen as a key component of Web 3.0.

    A smart contract in the sense of Web 3.0 is executed on a Web 3.0 infrastructure (blockchain) and uses data that is verified decentrally (data in its own ledger).

    A hybrid smart contact uses a Web 3.0 infrastructure (blockchain), but accesses data that is mostly generated in Web 2.0. This balancing act is an attempt to use the advantages of smart contracts for real-life problems.

    The real world can be seen as a centralized system, although there are many decentralized elements. In most societies, there is a central authority or institutions that exercise some control over important aspects of life, such as governments, legislatures, courts, corporations and other organizations. These central authorities often have the power to make decisions, set rules and control resources. This leads to a concentration of power and influence in the hands of a few, while the majority of the population is dependent on these centralized structures. Nevertheless, there are also decentralized elements in society, such as informal social networks, local communities, independent organizations and personal relationships that are not controlled by central authorities.

    Overall, the real world can be seen as a hybrid system that contains both centralized and decentralized elements. The development of technologies such as blockchain and decentralized networks can help to challenge some aspects of centralization and provide the opportunity to distribute power and control more broadly.

    In some use cases, a smart contract on a blockchain with the help of oracles could only access data from another blockchain without further interaction with Web 2.0-based systems.

    „Smart contracts” can also be executed on Web 2.0, although in this context they may not be as effective as on blockchain-based platforms in the context of Web 3.0. In Web 2.0, smart contracts can be implemented in centralized environments based on traditional servers and databases. These smart contracts would be managed and executed by a centralized server or authority. Although they can provide some of the benefits of automation and programmability, they lack the decentralization and transparency associated with blockchain-based smart contracts.
    An example of the use of smart contracts in Web 2.0 could be an online payment system that is operated on a central server. In this case, smart contracts could be used to automatically execute payments when certain conditions are met, similar to blockchain-based smart contracts. However, the execution of these smart contracts would be dependent on the integrity and security of the central server, which does not offer the same trustworthiness and immutability as a blockchain.

    For smart contracts to work as expected, the data supplied by Oracle must be correct. It is therefore crucial that the Oracle mechanism is error-free. Decentralized Oracle services are an innovative solution to the Oracle problem. These prevent data manipulation, inaccuracies and downtime. A Decentralized Oracle Network (DON) combines several independent Oracle node operators and reliable data sources to ensure end-to-end decentralization. Such a solution is offered by the company Chainlink (Figure 37).

    Fig. 37: Decentralized Oracle Networks (DONs) enable smart contracts to securely connect to external data and systems. [What Is Offchain Data and Computation?]

    Chainlink offers a decentralized infrastructure that makes it possible to collect data from various data sources and bring it into the blockchain. It uses a network of „oracles” that collect, validate and feed the data into the blockchain. These oracles are independent nodes that provide data and participate in the Chainlink network.

    Although Chainlink uses some blockchain principles and integrates with various blockchain networks such as Ethereum, it is not a standalone blockchain. Rather, it provides an infrastructure and ecosystem that aims to collect data from external data sources and bring it into the blockchain to provide smart contracts with real-time data.

    The following video provides a brief summary of Chainlink’s decentralized Oracle network solution.

    To illustrate the limitless potential of universally connected smart contracts, Chainlink has compiled a list of more than 77 possible applications.

    Let’s take a closer look at some of the examples mentioned by Chainlink:

    External payment transactions

    Nowadays, money is the usual means of valuing assets and purchasing services. Smart contracts can process payments in the cryptocurrency of their own blockchain, for example Ethereum smart contracts that accept ETH. However, many businesses and users do not want to exchange their preferred fiat currency for cryptocurrency. Instead, they prefer to use a variety of already established payment options and services. Chainlink enables the connection of smart contracts with existing banking systems. Developers can seamlessly integrate information and services such as consumer bank accounts, direct deposits and other processes from leading global banks into their algorithms. In addition, Chainlink provides access to leading credit card providers and established payment networks such as PayPal and others. Developers can now create applications that take advantage of the most popular payment methods used daily in both domestic and international retail environments.

    This lays the foundation for the integration of transactions with all established digital fiat money variants such as debit and credit cards, electronic wallets or apps as well as digital deposits at commercial banks in smart contracts.

    Insurances

    The insurance industry today operates in an environment characterized by low trust. Policyholders have an incentive to misrepresent positive information in their applications to lower their monthly premiums, while insurers tend to delay payments and increase rates to compensate for misrepresented risk profiles. Traditional insurance companies can benefit from blockchain technology by developing advanced smart contract-based parametric insurance contracts that automatically trigger insurance premiums and payouts based on real-world data provided by decentralized oracle networks.

    • Vehicle insurance

    Modern vehicles are equipped with a variety of internal sensors, internet connections and even native APIs. A smart contract can use some of this data to set the rental period, unlock the vehicle doors for the renter, record the rental period, calculate the kilometers driven, determine the remaining battery charge and automate rental payments. In this way, complex rental contracts can be created for „smart cars”. In addition, new forms of insurance will be available that are triggered based on impact sensors in the vehicle, or insurance discounts based on metrics such as kilometers driven per year.

    • Household contents insurance

    The growing „smart home” phenomenon is leading to the proliferation of sensors and advanced security systems that automatically notify homeowners and emergency services of unusual events. These sensors can be connected to smart contracts via Chainlink oracles to create new parametric home insurance products. For example, they can detect broken pipes, fire and smoke development, malfunctioning solar panels or even burglaries to enable more direct protection from the insurance company’s alarm system.

    • Health insurance

    With numerous advances in biotech and IoT wearables such as smartwatches, insurance companies can create smart contracts that offer health insurance discounts or impose penalties based on a patient’s health data. Key data points could include distance traveled (exercise), body weight, heart rate and potentially more advanced biometrics as they become available in the future. Chainlink oracles can also detect data anomalies that can trigger mandatory consultations to maintain favorable insurance premiums.

    Sustainability / Regenerative farming

    Hybrid smart contracts, which combine the benefits of on-chain code with real-time data from IoT sensors and satellite communications, offer the opportunity to create transparent, fully traceable and automated incentive systems. These systems can directly reward individuals, businesses and governments for their efforts to promote sustainable practices and combat climate change, as well as mitigate its harmful effects. These applications can include the creation of tokenized carbon offsets, promotion of regenerative agriculture and monitoring of resource consumption to reward those who stay within their means.

    These examples illustrate how your financial situation, your mobility, your living environment, your working environment and even your physical well-being can be embedded in algorithmic rules and integrated into smart contracts. Looking at this in a visionary way, the concept of „Code is Law” could soon lead to essential aspects of your life story being magically influenced by smart contracts.

    3.8.2. Behind the scenes – Shadows on the wall

    Chainlink works closely with the World Economic Forum (WEF). In a WEF article entitled „The missing link between blockchains and enterprises” and in a WEF white paper entitled „Bridging the governance gap: Interoperability of Blockchain and Legacy Systems”, Chainlink’s technology is positively highlighted and promoted.

    The Ethereum platform is supported by the Ethereum Foundation, a non-profit organization founded in 2014. Its main purpose is to develop and promote the Ethereum platform. The Ethereum Foundation plays a crucial role in supporting the Ethereum developer community, promoting education and research in the field of blockchain and cryptocurrencies, and driving the continuous development of Ethereum technology.

    The Ethereum Foundation and the World Economic Forum (WEF) also work closely together. Aya Miyaguchi, Executive Director of the Ethereum Foundation, was appointed to the WEF’s Blockchain Global Council in 2019. Together, they are working on various projects, including the question of how blockchain principles can contribute to improving environmental, social and governance (ESG) systems.

    Another point of contact exists with the company ConsenSys. Joseph Lubin, the founder and CEO of ConsenSys, is also one of the co-founders of Ethereum. ConsenSys is listed as a partner organization of the World Economic Forum. In a white paper by ConsenSys titled „Central Banks and the Future of Digital Money: An Overview and Proposal for a Central Bank Digital Currency on the Ethereum Blockchain”, the following can be read:

    According to the Bank for International Settlements, over 70% of central banks are looking at issuing a digital currency on a blockchain.

    CBDCs can offer a range of advantages. They can play a central role in advancing the digital asset revolution in a regulated, lower-risk and – crucialy – accessible way, helping make financial markets more efficient and accessible to all global citizens.

    CBDCs can give central banks more effective, future-oriented tools to allow them to implement monetary policy in more direct and innovative ways and keep pace with technological change. CBDCs could also simplify and reduce the cost of cross-border remittances, while forming the basis for more efficient, more secure interbank payments networks. The list goes on.

    Below we provide both an overview of CBDC and a concrete example of how a CBDC might be implemented on the Ethereum blockchain. We believe that Ethereum is the best-suited blockchain network for the kind of maximally secure, global-scale, interoperable settlement platforms that CBDCs require. But we are well aware that there are many other possibilities.

    What is important is that central banks have come to realize the extent of the transformations that are already happening in digital currencies, and that they see the importance of embracing a significant role in bringing about this change.

    The fact that one aims to use Distributed Ledger Technology to solve essential tasks in a centralized ledger system sounds like a paradox. But more about that in the following chapters.

    3.9. Interim balance

    Cryptocurrencies were introduced in 2009 as an alternative, democratic option to the traditional banking and financial system perceived as elitist. Despite this ambitious vision, most crypto projects have encountered a common problem: recognition as a suitable form of payment in the real world dominated by fiat currencies. Some cryptocurrencies have proven to be extremely volatile, while their networks are often perceived as slow, cumbersome, and complex for the average user. In contrast, stablecoins are viewed skeptically due to concerns regarding the backing of the underlying cryptocurrency as well as regulatory hurdles, particularly with projects like Libra.

    However, this creates an ideal test environment for exploring different aspects of the introduction of various decentralized digital currencies worldwide without significantly disrupting the existing financial system.

    Distributed ledger technologies, in particular blockchain, have been tested and further developed in practice. At the same time, the use of decentralized digital currencies through digital wallets was tested by a broad population worldwide. The concept of pseudonymity, which protects privacy while making transactions transparent, was introduced. The use of virtual „safe assets” as tokenized money in economically difficult situations has significantly increased the acceptance of digital currencies in affected regions and prepared the population for their use.

    Smart contracts have been used to introduce programmable functions in complex transactions. In addition, a corresponding infrastructure was set up to supply smart contracts with real-time data from the real world, extending their scope beyond crypto ecosystems.

    At the same time, corresponding analysis and monitoring tools were also tested and improved in order to provide regulatory authorities with the necessary depth of data extraction.

    Cryptocurrencies have contributed to raising public awareness about dealing with digital currencies and positively influencing perceptions regarding the technological evolution of the monetary system.

    The design of Central Bank Digital Currencies (CBDCs) will be heavily influenced by technological innovations from the cryptocurrency world. This will be further elaborated in the following chapters.

    4. CBDC – The Digital EURO – A New Star is Born

    In the previous chapters, it has been emphasized that the current fiat money system faces various structural and technological challenges. The introduction of a Central Bank Digital Currency (CBDC) is seen as a crucial step in addressing these challenges. Currently, 134 countries and currency unions, representing 98% of the global GDP, are considering the introduction of a Central Bank Digital Currency.

    There are two types of CBDC issued by central banks: „Wholesale CBDC” and „Retail CBDC”.

    Wholesale CBDC refers to a digital currency intended for large financial institutions and institutional investors such as commercial banks and payment processing companies. This form of CBDC is typically used to facilitate interbank transactions or serve as a means of settlement for wholesale trade between financial institutions. Wholesale CBDC can make payment and settlement systems more efficient by processing transactions faster, more securely and more cost-effectively. Although wholesale CBDC is often presented as a new concept, digital central bank money has been available for wholesale transactions for decades. The discussion therefore does not focus on whether to introduce digital central bank money for wholesale transactions, but rather on possible technological changes in the provision of this money.

    In contrast, Retail CBDC is intended for general use by individuals and businesses, similar to physical cash or digital money in a bank account. Retail CBDC could enable people to conduct digital transactions directly with the central bank, without the need for a bank account at a commercial bank. Retail CBDC aims to enhance general access to digital payment methods and promote the use of digital transactions by individuals and small businesses.

    In the following considerations, we will focus on the Digital Euro as a representative of CBDC.

    In June 2021, the European Central Bank (ECB) announced the „Digital Euro”. In July of the same year, the ECB commenced the investigation phase of the digital Euro project. This phase focused on central questions regarding the design and introduction of a potential digital Euro and included the development of a prototype. The investigation phase spanned approximately 24 months and concluded in October 2023. On October 18, 2023, the ECB Governing Council decided to initiate the preparatory and experimental phase for the digital Euro. This phase, which could last around three years, aims to establish the foundations for a potential digital Euro.

    From today’s perspective, we are still in the midst of this process. Although no final results regarding the design, functionality, and exact launch date of the digital Euro have been released yet, some trends are becoming apparent.

    It is important to note that Wholesale CBDC and Retail CBDC, although they can be considered as separate projects, are closely interconnected in the overall strategy of the ECB for digital currencies. The technological architecture and infrastructure developed for Wholesale CBDC can influence the architecture of Retail CBDC. Understanding how Wholesale CBDC functions can help in better comprehending the technical aspects of Retail CBDC. The goals and functions of Wholesale CBDC can provide insights into the motivations of the central bank and demonstrate how they relate to a Retail CBDC. The introduction of Wholesale CBDC can significantly impact the existing financial system, including banks, financial markets, and payment infrastructure. Understanding these impacts can help assess potential effects on Retail CBDC and the entire financial landscape.

    4.1. Wholesale CBDC – Nature does not make leaps (or does it)

    In December 2020, the report „Money in Programmable Applications – Cross-Industry Perspectives from the German Economy” was published by the Working Group „Programmable Money” of the Deutsche Bundesbank. The initiators of this working group included Dr. Jens Weidmann, the then-President of the Deutsche Bundesbank, and Olaf Scholz, the then-Federal Minister of Finance. Members of the „Programmable Money” Working Group included representatives from the Deutsche Bundesbank as well as from Deutsche Bank AG, Deutsche Börse AG, Landesbank Hessen-Thüringen, Landesbank Baden-Württemberg, IBM Deutschland, Siemens, VW, Bosch, SAP, among others.

    The working group summarizes the results of its study as follows:

    The digital transformation is giving rise to new business models and fundamentally changing existing business processes. Many processes will become much more automated in the future. Distributed Ledger Technology, on which real goods and services can be mapped as tokens and traded digitally, enables programmable, autonomous and automated service flows. This poses new challenges for current payment systems. The extent to which the advantages of digital settlement technology can be realized depends to a large extent on whether the associated cash flows are equally programmable and can be synchronized with the service flows.

    Conceivable business cases that require innovative money-side settlement solutions are largely based on distributed ledger technology and may include smart contracts that control the execution of the business cases. Machine-to-Machine payments, Internet-of-Things payments and Pay-per-Use payments are examples of use cases that require programmable payments for money-side settlement.

    New and innovative solutions are therefore needed to meet the demand for programmable payment solutions.

    The greatest functional benefit in the processing of programmable payments is attributed to tokenized commercial bank money and digital central bank money. The development of both payment solutions, which is still pending, offers sufficient scope to comprehensively consider the need to implement programmable payments. Both solutions are particularly suitable as a trust-securing solution for processing programmable payments due to the expected credibility of their issuers and their application within a binding legal framework.

    Conclusion:
    The digital transformation is revolutionizing the way companies work. Many processes are being automated, which means that they are being carried out independently by machines. Distributed Ledger technology (DLT) opens up the possibility of mapping real goods such as products or services as digital tokens and trading them via DLT networks using smart contracts. This technology enables automated and programmable payments. To enable such payments, a new digital form is needed not only for central bank money in wholesale transactions, but also for commercial bank money. In order for these forms of money to be represented in DLT networks and integrated into smart contracts as a means of payment, they must be available in tokenized form.

    In his presentation „Perspectives for Wholesale CBDC in the Euro Area” in September 2023, Dr. Martin Diehl, Head of the Payment Systems Analysis Department at the Deutsche Bundesbank, once again emphasizes the importance of integrating DLT systems, tokenized currency forms, and Wholesale CBDC for various use cases in the real economy.

    He emphasizes that in a Smart Economy, the flows of goods, money, and information should ideally occur automatically and synchronized. By using DLT systems, coordination processes can be eliminated through the use of a shared database. Smart Contracts can support automated settlement. The payment process is intended to function as an integral part of the overall process.

    Fig. 38: Use cases in the real economy that can be mapped on DLT systems

    This objective cannot be realized with the existing payment processing system of the European Central Bank (ECB) due to compatibility problems.

    Fig. 39: Compatibility issues between DLT-based use cases and the ECB’s traditional payment settlement system

    TARGET stands for „Trans-European Automated Real-time Gross Settlement Express Transfer System” and is the payment settlement system of the European Central Bank (ECB). It is the main instrument for settling euro payments within the Eurosystem, the framework in which monetary policy is implemented for the euro area.

    Essentially, TARGET is a system that enables commercial banks to process payments among themselves in real-time and in euros. It facilitates the efficient settlement of payments between banks in the euro area, catering to both their own transactions and those of their customers.

    The TARGET system comprises both the so-called TARGET2 mechanism for the settlement of large-value payments and the TARGET2-Securities (T2S) mechanism for the settlement of securities transactions.

    For most people, the TARGET system is not directly relevant in everyday life as it is primarily used by banks. However, it plays a crucial role in the stability and efficiency of the financial system in the euro area by providing a secure and rapid mechanism for the exchange of euro payments between banks.

    The Deutsche Bundesbank is examining two possible solutions. One option is to offer the wholesale CBDC in tokenized form directly on the DLT network on which the smart contract is executed.

    Looking back at the discussions in Chapter 3.3., it’s recalled that a token in the world of blockchain is a digital unit with various functions. It can serve as a cryptocurrency, represent digital versions of fiat currencies on blockchain platforms, and be used for transactions. In Chapter 3.6, it was explained how a stablecoin is supported as a token on various blockchains. In this scenario, the tokenized Digital Euro behaves similarly to a „stablecoin” and is used for transactions on the same DLT network where the respective smart contract is executed. However, from today’s perspective, the practical implementation of this solution appears to be extremely challenging for the central bank.

    The second option is to securely link the central bank money to the DLT network on which the smart contract is executed via an interface that has yet to be defined. This approach is similar to the logic described in Chapter 3.8.1. Smart contracts are contracts that are based on and dependent on data. Smart contracts and Dapps that run on a blockchain can only directly access data that is available on the blockchain. In the blockchain context, oracle services are external services or protocols that connect smart contracts with data or information from the real world. Since smart contracts on blockchain platforms cannot directly access external data sources, oracle services are required to bridge this gap. Oracle services act as an intermediary between the blockchain and external data sources such as APIs, IoT devices, traditional databases or other blockchain networks. They collect and deliver real-time data or events to smart contracts so that they can automatically execute actions based on this data.

    This approach leverages the existing financial market infrastructure and is considered by the Bundesbank to be low-risk and quickly implementable. The financial market infrastructure (FMI) operates parallel to distributed ledger or blockchain networks, where tokenized assets are traded through smart contracts. The exchange of information between the DLT/blockchain network and the FMI (e.g., Bank A / Bank B) takes place via a so-called trigger interface. This synchronizes events between the blockchain and the real world. This trigger interface acts as an oracle with respect to the DLT/blockchain network.

    Fig. 40: Trigger solution as a secure „Oracle” interface between the „asset chain” with the smart contract and the banking ecosystem

    A trigger is a specific condition or event that initiates a predefined response in a financial product or a risk management system.
    An asset is an economic value or resource that provides a benefit or a claim to future benefit for a company, an individual, or an organization. Assets can take various forms and are often used in different contexts, including finance, economics, and accounting. Here are some examples of different types of assets that may play a role in the example described above:
    Tangible assets: These are physical assets that have a material value and can be used for the production of goods and services. Examples include land, buildings, machinery, equipment, vehicles, and inventory.
    Intangible assets: These include non-physical but still valuable assets that are based on intellectual property or represent other non-physical rights. Examples include patents, copyrights, trademarks, licenses, software, trade secrets, and customer relationships.
    Natural assets: These refer to natural resources such as land, water, air, minerals, oil, gas, and renewable energies that have economic value and can be used for the production and consumption of goods and services.
    Assets play an important role in the valuation of companies, asset allocation, accounting, and financial planning. They are crucial for value creation and the success of organizations and serve as the foundation for investments, lending, and risk management.

    The motto of the Deutsche Bundesbank is „Natura non facit saltum”. This literally translates to „Nature makes no leap”. This phrase originates from biology and refers to the notion that changes in nature occur gradually and step by step, rather than suddenly and abruptly. It emphasizes the idea of continuity and gradual development in natural processes and systems.

    This logic is only partially reflected in the ECB article „Central bank money settlement of wholesale transactions in the face of technological innovation” from August 2023. There, one can read the following:

    The Eurosystem is analysing the potential impact of emerging technologies, including distributed ledger technology (DLT), on the settlement of wholesale financial transactions.

    The majority of market stakeholders surveyed by the Eurosystem expect a significant uptake of DLT for wholesale payments and securities settlement, with an indicative time horizon of between five and ten years.

    Many market stakeholders state that, in the absence of a DLT-compatible central bank money settlement solution, they would look for alternatives. In such a situation, market stakeholders may consider using alternative settlement assets, such as commercial bank money or stablecoins. Such alternatives would not provide the same level of safety as central bank money. A partial move from central bank money to other settlement assets could also increase liquidity fragmentation and have adverse implications for financial stability.

    At the same time, some market stakeholders argue that the speed of DLT adoption, if not its success, might to some extent depend on the involvement of the central banking community. The ability to settle transactions in central bank money could be a requirement for certain market participants, preventing them from adopting DLT as long as a suitable central bank money settlement solution is not in place. In addition, central bank involvement could be perceived as support for DLT as an innovation in financial services.

    Should the use of DLTs become more prevalent for wholesale financial transactions, possible Eurosystem responses could include enabling market DLT platforms to interact smoothly with Eurosystem infrastructures based on existing technology, or making central bank money available in a new form that can be recorded and transferred on a DLT platform. These responses are not mutually exclusive.

    These new solutions may, but need not, involve the provision of central bank money in the form of DLT tokens.

    The provision of any new Eurosystem solution for the central bank money settlement of DLT-based transactions must not come at the expense of the Eurosystem’s control over the central bank money it issues.

    The ECB has started to analyze and test four conceptual solutions.

    Fig. 41: Conceptual solutions for the settlement of central bank money for wholesale transactions registered on DLT platforms.  [EUROPEAN CENTRAL BANK]
    Notes: Blue lines, dots and icons represent central bank money (CeBM). Purple lines, dots and icons represent securities.

    The first option (1) uses the existing financial market infrastructure (see Fig. 41). The second option (2) relies on a separate Distributed Ledger Technology (DLT) network that works with tokenized central bank money and is connected via an „oracle” interface to the external DLT network on which the smart contract is executed. Options (3) and (4) rely on a „unified” ledger where CBDC and security tokens are directly connected to the smart contract. The difference between the options lies in who operates the DLT network.

    Compared to the Deutsche Bundesbank, the European Central Bank (ECB) is taking a more proactive approach to evaluating possible solutions.

    Conclusion:
    Over the next 10 years, the deployment and utilization of DLT platforms will significantly increase in both the economy and the financial sector. CBDC will increasingly be integrated as part of smart contracts running on DLT platforms. In the short to medium term, this integration will occur via an „Oracle-like” interface between the existing financial market infrastructure of central banks and external DLT platforms (trigger solution). In the medium to long term, the European Central Bank (ECB) may additionally introduce its own DLT platform and provide a central bank money (Digital Euro) token to enable connectivity with smart contracts.

    It is important to note that the DLT platforms used in the real economy and the financial sector are not identical to the blockchain platforms in the cryptocurrency ecosystem. They are primarily „permissioned” or „centralized” DLT systems. In this type of DLT/blockchain, the participants or nodes operating the network and validating transactions are not open to everyone but are controlled through specific permissions.

    Unlike the „permissionless” or „decentralized” blockchain, as used, for example, in Bitcoin or Ethereum, where anyone can participate in the network without restrictions, a permissioned or centralized blockchain requires authorization or permission to operate nodes in the network and validate transactions.

    In a permissioned blockchain network, permissions can vary depending on the requirements and agreements of the participants. For example, a company or organization can establish a permissioned blockchain network where only selected parties have access to conduct transactions and validate blocks. This type of blockchain is often used in private or enterprise-specific applications where data privacy and control over the network are important.

    In this case, the primary focus is on increasing efficiency and reducing overhead, especially in interbank transactions, securities settlement, and cross-border transactions, as well as improving transparency and control over the actions of authorized participants. It’s less about a high degree of openness or true decentralization.

    4.2. Commercial Bank Money Token (CBMT) – Those who do not go with the times, perish with time

    With the introduction of tokenized wholesale CBDC in the existing fiat banking system, changes in commercial bank money are expected to occur. On one hand, commercial banks are expected to ensure that commercial bank money can be converted into central bank money at a 1:1 ratio at all times. On the other hand, the number of traditional corporate clients undergoing digital transformation and becoming part of the new „Smart Economy” is expected to increase.

    The term Smart Economy refers to an economy supported by the use of modern information and communication technologies (ICT) as well as innovative technologies such as blockchain, artificial intelligence (AI), and the Internet of Things (IoT). These technologies are utilized to make processes more efficient, transparent, secure, and interoperable.

    In a „Smart Economy”, businesses and governments utilize digital technologies to increase efficiency and productivity, offer innovative services, and develop new business models. This can include the use of big data analysis, cloud computing, the Internet of Things (IoT), and machine learning to create intelligent solutions for various industries such as healthcare, education, transportation, energy, and finance.
    In short, the „Smart Economy” refers to an economy characterized by the intelligent utilization of digital technologies and data to promote growth, innovation, and quality of life.

    To meet the new requirements, existing commercial bank money needs to adapt to the technologies of Industry 4.0. This enables it to become an integral part of industrial value chains and leverage the potential of technology in the banking sector. This new technological representation of commercial bank money is called „Commercial Bank Money Token” (CBMT). A CBMT still represents commercial bank money with all its characteristics and services offered by banks. However, it can also enable new and additional functionalities by leveraging Distributed Ledger Technology (DLT).

    The Committee of German Banking Industry (Deutsche Kreditwirtschaft) confirmed the necessity of introducing Commercial Bank Money Tokens (CBMT) in its „Working Paper on Commercial Bank Money Token” in March 2023 and presented a draft for the design and implementation of CBMTs.

    The goal of commercial banks is to offer financial services to their customers (businesses and individuals) based on smart contracts. The basic idea is that customers of commercial banks can convert a portion of their electronic account balances into tokenized form to conduct payment transactions within the framework of smart contracts. The transfer of balances between the traditional electronic form and the tokenized form should be transparent and at a 1:1 ratio. A detailed description of this topic can be found in the aforementioned working paper.

    In the position paper „The digital euro: Background information and assessment of recent discussions. Reviewing of the ECB’s design principles for a digital euro and their implications for our dual monetary system” of June 2023, the German Banking Industry Committee summarizes the types of money in the monetary system of the future as follows:

    Fig. 42: New and existing types of money for a monetary system of the future

    In the new monetary system, all forms of money currently available in the Fiat system will have a digital twin. This is in line with the ideas of the Bank for International Settlements (BIS).

    Blueprint for the future monetary system: improving the old, enabling the new

    The Bank for International Settlements (BIS) is often referred to as the „bank of central banks”. If you want to describe the role of the BIS metaphorically, you could see it as a kind of central coordinator for all central banks. It is therefore useful to take a closer look at the BIS’s ideas about the future monetary system. This short video message from June 2023 describes the BIS vision on this topic very clearly.

    The aim of BIS is to establish a unified ledger. A unified ledger refers to a single database or accounting system that is managed by a central authority and can be shared by different parties. The unified ledger is intended to be a programmable platform on which money and assets are digitally represented as tokens. According to BIS, a unified ledger with CBDCs can facilitate the linking of different elements of the financial system by storing central bank money in the same place as other tokenized claims. This allows complex transactions with tokenized money and assets to be automated without the need to reconcile individual steps separately between different databases, as all the necessary elements are stored in a unified database.

    Fig. 43: The BIS vision of the uniformity of the future financial system [BIS]

    This vision is reflected in the ECB’s proposed solutions – Option 3 und Option 4 (see Fig. 41).

    A token in the BIS world consists of two basic layers: Information about the „asset” (e.g. unique identifier, owner, custodian, origin, value, etc.) and rules (what the asset can and cannot do, e.g. for use in smart contracts).

    Fig. 44: The token definition according to BIS [BIS]

    The term „asset” has already been explained in connection with Fig. 40. In addition to the asset types listed there, the BIS definition also includes financial assets.
    Financial assets: These include assets that have a monetary value and can be traded on the financial markets. Examples include cash, bank deposits, shares, bonds, investment funds, derivatives and other financial instruments.

    The process of tokenizing such assets is carried out using so-called ramps. These ramps define a link between assets in traditional databases and their digital versions (see Figure 45). The assets in the traditional database are „locked” and serve as security for the digital tokens that are issued on the programmable platform. This ensures that the transfer of the digital tokens also guarantees the transfer of the real assets. So if you own a token, you also own the real asset it represents.

    Fig. 45: The process of asset tokenization [BIS]

    From the perspective of the Bank for International Settlements (BIS), the unified ledger consists of two main areas: the data environment and the execution environment. Specific rules, standards, and governance apply in these areas. The data environment hosts money, assets, and information that are either internal or external to the ledger. Each of these elements is divided into partitions that govern ownership or access. The execution environment carries out operations that affect these elements, either directly by users or through smart contracts (see Figure 46).

    Fig. 46: The unified ledger as envisioned by BIS. (The lock indicates that some operations may be performed on confidential encrypted data).  [BIS]

    The term „governance” refers to the way in which organizations or systems are directed, managed and controlled. It encompasses the defined rules, procedures, guidelines and mechanisms designed to ensure that an organization or system operates effectively, transparently, responsibly and in the best interests of all stakeholders.

    In a broader context, governance can also describe the way in which decisions are made, resources are managed and responsibilities are assigned. This can extend to different levels, including governance at the national or international level, corporate governance in companies or organizations, and self-governance in communities or groups.

    Good governance often includes characteristics such as accountability, transparency, participation, integrity and efficiency. It is about ensuring that decisions are made fairly and in line with the goals and values of the organization and that the interests of all stakeholders are adequately considered. In companies, strong governance can increase trustworthiness, reduce the risk of misconduct and promote long-term growth and sustainability.

    An important question concerns the scope of the main ledger. According to the Bank for International Settlements (BIS), the concept of a unified main ledger does not preclude the existence of separate ledgers for different use cases. However, the BIS assumes that in practice, it will initially likely be applied to specific applications where the immediate benefits are most evident. For example, one ledger could aim to improve securities settlement and involve only relevant parties, while another could focus on trade finance, such as in the shipping industry. Over time, the scope of the main ledger could expand through the inclusion of additional assets and companies. Ultimately, the expansion of the main ledger will be influenced by the specific needs and constraints of individual countries.

    Natura non facit saltum – Nature does not make a leap. However, nature is constantly changing. 

    Advancing global connectivity through technologies such as 5G, 6G and the Internet of Things (IoT), together with the introduction of ever more powerful technologies that are increasingly based on AI algorithms, is gradually changing various aspects of our lives. The motto „faster, further, higher” is driving this change and leading to a transformation of the economy into a „smart economy”, cities into „smart cities”, real estate into „smart buildings/homes” and cars into „smart cars”. This comprehensive „smartness” makes it possible to incorporate more and more assets into the data environment of a uniform ledger and to apply corresponding governance mechanisms as required.

    There are some parallels between the concept of the „Unified Ledger” proposed by the BIS and the Ethereum world (Chapter 3.8.). In both cases, users interact in a programmable environment with smart contracts to execute transactions using tokens that meet predefined conditions. When these conditions are met, the smart contract automatically executes the corresponding actions in the Ethereum blockchain.

    While Ethereum emphasizes the principle of „Code is Law”, the BIS speaks of governance. The Ethereum Foundation describes Ethereum as a protocol for human coordination. The unified ledger is promoted as a perfect foundation for seamless operations with assets.

    The interaction of the Unified Ledger with external information still resembles the approach of Chainlink (Chapter 3.8.1.). However, a significant difference lies in the fact that BIS, ECB, and similar institutions employ centralized permissioned architectures, which entail certain risks.

    Conclusion:
    Tokenization will encompass not only wholesale CBDC but also commercial bank money. As a result, the issue will concern not only large financial institutions but also the general public. It is likely that this will initially be applied in Business-to-Business (B2B) transactions and then seamlessly reach the Business-to-Customer (B2C) environment.

    The term Business-to-Business (B2B) refers to transactions that take place between two companies. For example, if a company buys computer hardware from another company, this would be a B2B transaction.
    The term Business-to-Consumer (B2C) refers to transactions in which a company sells products or services directly to consumers. For example, if you buy a pair of shoes online from a retailer, this is a B2C transaction.
    In simple terms, B2B refers to transactions between businesses, while B2C refers to transactions between a business and a consumer.

    In the document „Blueprint for the future monetary system: improving the old, enabling the new”, the BIS comments on the topic of Retail-CBDS as follows:

    Enhanced digital representations of central bank money could include a retail variant open to use by ordinary users. A retail CBDC is a digital version of physical cash that can be used by households and firms for everyday transactions. By providing the public with a ready way to convert alternative private digital monies into digital cash, i.e. a direct link to the sovereign unit of account in digital form, the central bank would further support singleness.

    4.3. Retail-CBDC – Heaven Is a Place on Earth

    Although retail CBDC represents only a part of the future tokenized financial system, it is at the center of attention and the subject of controversial discussions. Consumers fear the disappearance of cash, while banks are concerned about their business models and ultimately the financing of the real economy.

    Nowadays, most people use cash and digital commercial bank money, also known as bank money, for the exchange of goods and services. They are very familiar with these two forms of money. Changing their behavior and habits in handling money will not be easy.

    Broad public support is essential for the success of the CBDC. Consumers and retailers will ultimately be the end users. CBDC will not succeed if they are not convinced of its benefits. Educating the public about the pros and cons of CBDC will be critical to getting all stakeholders involved.

    Although the preparation and trial phase of the European Central Bank (ECB) will only be completed in the coming years, the promotional campaign is slowly gaining momentum. Some of the arguments the ECB uses to convince the public of the digital euro are summarized in the promotional film „The Digital Euro – Easy, Safe, Fast, Reliable”.

    Cash, commercial bank money, and the digital euro (after its introduction) fulfill the basic functions of money as legal tender: they serve as a store of value, a medium of exchange, and a unit of account. For these forms of money to be accepted by a broad population, they must also possess important characteristics such as privacy, accessibility, security, convenience, ease of use and cost efficiency. It is important to bear in mind that trust in the stability of money is crucial. However, this trust can quickly erode, especially in times of economic or political instability.

    The success of the digital euro as a retail CBDC depends on how it positions itself in relation to cash and commercial bank money, taking into account the aforementioned additional characteristics. Below, the three forms of money are compared from this perspective, starting with the current status quo.

    Physical cash vs. digital private bank money
    – a comparison from the end user’s perspective
    Never touch a running system.“

    Data protection / Privacy:

    Digital money and the associated transactions leave digital traces. Relevant information is collected by the respective banks, credit card companies, and private payment system operators. Authorities also have easy access to this data, especially when investigating suspected cases of tax evasion, money laundering, terrorism financing, or other illegal activities in accordance with applicable laws. Therefore, it is not possible to achieve the same level of anonymity as with cash.

    On the other hand, the use of cash for financial transactions is increasingly restricted by law in many countries. According to current EU regulations, cash payments are only permitted up to an amount of 10,000 euros. For cash transactions between 3,000 and 10,000 euros, the new regulation requires proof of identity as well as proof of the origin of the money. This data must be recorded and stored by merchants and institutions.

    In normal times, many people have no problem sacrificing their privacy to combat crime and terrorism. However, let’s recall the events in Hong Kong in 2019, when political protesters lined up to pay for their subway tickets in cash. The protesters expressed concerns that their card data could be traced and used as evidence against them if they were prosecuted by the police—similar to what happened to leading figures of the pro-democracy Umbrella Movement in 2014. This demonstrates that people in authoritarian regimes can suddenly recognize the importance of cash.

    Accessibility

    Cash is extremely easy to obtain. To have it, you simply need to find someone willing to give it to you.

    However, if you want to access digital money, you will need a bank card. To do this, you will need to convince the bank that you are who you say you are by showing your ID and assuring them that you will not use the card for illegal purposes. For most of you, this may not be a problem, but research data shows that in 2021, around 4% of the population in the EU still did not have a bank account. In emerging and developing countries, this percentage is significantly higher.

    What is particularly worrying is that there have been a number of cases where people have lost their bank accounts. One example of this is in the UK, where controversial politician Nigel Farage temporarily lost his bank account because his ‚values‘ did not match those of the bank. In Canada, private banks were pressured by the government to freeze the accounts of truck drivers protesting against the Covid-19 vaccination.

    Although bank accounts are accessible to most, they remain out of reach for many people and there is a real risk of losing access to them in certain circumstances.

    Security

    In terms of safety, there is a tie.

    On the one hand, carrying a lot of cash carries the risk of theft or loss. On the other hand, bank fraud is also a potential threat.

    However, when a financial crisis occurs, people often realize once again that digital private bank money is ultimately just a promise to pay physical central bank money.

    Cash is issued directly by the central bank and is physically available. It is backed by the authority of the central bank. Public confidence in the central bank and the stability of the currency play an important role in backing cash. If the central bank is considered trustworthy and the currency is stable, cash is automatically accepted and acquires an intrinsic value.

    The security of private digital money heavily depends on the financial stability of commercial banks. As described in Chapter 2.2.1., banks lend out a large portion of their customers‘ deposits to other customers and keep only a fraction of these deposits available for potential withdrawals (minimum reserve). To protect a substantial portion of these deposits in the event of a bank failure, banks contribute to a safeguard fund, also known as a deposit insurance system. Following the financial crisis of 2007-2008, only certain minimum standards were established at the EU level, such as the protection of deposits up to €100,000 per bank customer.

    In times of crisis, cash can serve as a secure emergency reserve, while private digital money depends on the liquidity of banks.

    Convenience

    Digitalization has revolutionized payment processing and will continue to do so in the future. Today’s payment methods are vastly different from a decade ago. With just one device or app, you can now make purchases on your watch while also using an app to split the cost of dinner with your date – all before you’ve even left the table. No more counting money or worrying about change. Carrying a bulky wallet or making regular trips to the ATM is also a thing of the past. As a merchant, accepting digital payments makes your administration much easier and saves you a trip to the bank to deposit cash receipts.

    The implementation of social distancing, lockdowns and the fear of potential virus transmission via physical cash during the pandemic have further boosted digital transactions and payments. The pandemic has accelerated the process of digitalization in all industries worldwide, which in turn has encouraged the spread of cashless payments. This development has increased the acceptance of electronic payments by merchants to facilitate e-commerce and contactless exchanges.

    In 2021, physical cash transactions accounted for 18% of POS transactions worldwide and are expected to fall to 10% by 2025. By region, the share of cash in 2021 was 44% in the Middle East and Africa (MEA), 36% in Latin America, 26% in Europe, 16% in Asia-Pacific and 11% in North America. A decline in cash usage is expected in all regions by 2025, for example to 31 % in MEA, 24 % in Latin America, 17 % in Europe, 8 % in Asia-Pacific and 6 % in North America. (Fig. 47).

    POS stands for „Point of Sale”. A POS transaction refers to a financial transaction that takes place at a physical point of sale, such as at the checkout of a store or at a sales stand.

    Fig. 47: Share of the mix of POS payment methods in % (2022 – 2025) [CBDC: Context, challenges, and conditions for a successful adoption, p.20]

    Ease of use / e-Commerce

    Online retail is booming, and not just since the start of the coronavirus pandemic. In 2023, three quarters (75%) of 16- to 74-year-olds in the EU said they had already shopped online. Online purchases were particularly widespread in the Netherlands (95%), Denmark (94%) and Sweden (91%). Germany came eighth in the EU ranking with 82%.

    In order to benefit from the advantages of online commerce, consumers have a variety of payment methods to choose from. The most common payment methods for e-commerce are shown in the illustration.

    Fig. 48: Common payment options in online retail [verbraucherschutz.com]

    With the rise of e-commerce, it is becoming increasingly difficult for cash, as it is practically impossible to use cash for online purchases.

    Cost efficiency

    As a consumer, this aspect may seem unimportant to you, as both digital payments and cash transactions appear to be free of charge at first glance. However, there are costs and inefficiencies associated with the use of cash within an economy. This includes the need for careful handling and management, secure transportation, security measures and the provision of equipment or personnel to count the money. It also requires continuous investment in security measures to protect against counterfeiting, which in turn leads to additional costs.

    In contrast, with each card payment made by a customer, a merchant pays a small fee to banks and card companies, which is factored into the pricing of their products or services.

    After comparing the two traditional forms of money, the following conclusion can be drawn:

    In summary, it can be noted that both traditional forms of money have their advantages and disadvantages, and neither of them is perfect.

    Retail-CBDC Advantages and potential risks

    In order to alleviate public concerns about the introduction of CBDC and promote acceptance of this new form of money, it is crucial to publicly discuss both the benefits and the potential risks. How could such a discussion be framed from the perspective of CBDC proponents?

    Data protection / Privacy

    Unlike physical transactions with bills and coins, digital transactions leave digital footprints that are traceable and indelible. One characteristic of physical cash is its complete anonymity. There is no record of the transaction history. This is an indisputable fact.

    Although most citizens today have no problem with commercial banks, payment service providers and other private payment providers such as Visa, Mastercard or PayPal accessing their transaction data, privacy and data protection concerns regarding CBDC are clearly pronounced. Private individuals fear that the state has access to sensitive and personal information about transactions compared to the private sector. One explanation for this is that the impact of private companies could be limited or harmless, such as further advertising on their devices. In contrast, the consequences for the state could be more serious. The fears could also be due to an „innate” or „acquired” distrust of governments that hold a large amount of data on citizens, leading to concerns about state surveillance and the maxim „Big Brother is watching you”.

    Most people often ignore the fact that in a digital economy, the state already has access to data from private companies such as commercial banks and payment service providers. This is usually for a variety of reasons, including monitoring financial transactions to combat money laundering and terrorist financing, enforcing tax laws and maintaining financial stability. Access to such data is formally regulated by data protection laws and policies to protect the privacy of citizens.

    However, the technology behind CBDC allows for a much deeper form of surveillance. An insightful comment on this matter comes from Augustin Carstens, the General Manager of the Bank for International Settlements (BIS):

    Wouldn’t such a statement at least give you pause for thought? To alleviate concerns about government surveillance, it is the role of the authorities to reassure the public that adequate regulations and controls are in place. In this context, international organizations such as the OECD play an important role. The OECD document entitled „Central Bank Digital Currencies (CBDCs) and democratic values” contains some relevant statements on this topic.

    One of the risks posed by CBDCs for society is their potential use as surveillance tools, given potential access to heightened levels of information about users, including transaction and account level information. At the extreme, CBDCs could give governments the ability to monitor and track all transaction and other financial activity details of users, and also the possibility to exert greater control over private transactions. Authorities could unjustly censor users and transactions without due process or recourse.

    Moreover, in a scenario in which CBDCs are used for largescale control of monetary transactions, CBDCs could become an instrument of control and social profiling, mbiased and discriminatory treatment of users and possible human rights abuse.

    The OECD is an international organization with 38 member states that are committed to democracy and a market economy. Its members include many EU countries, the USA, Canada, the UK, Japan and Australia. The document emphasizes not only understanding the risks of introducing CBDCs, but also setting clear guidelines to ensure that democratic values are taken into account in the design and implementation of CBDCs. There are four main areas to which particular attention is paid: (i) Civil liberties and human rights; (ii) Equity: availability, accessibility and affordability; (iii) Privacy and integrity; (iv) Trust: Security, transparency, operational resilience and protection of the aforementioned values.

    Fig. 49: Democratic values for the design and implementation of CBDCs, as defined in the OECD report.

    The OECD considers data protection as follows:

    In terms of privacy options, the lowest degree of privacy would involve a design wherein all onboarding/KYC and transaction data are visible to the central bank. The second lowest degree of privacy would involve transparency and visibility of the above data to the intermediary only. On the other end of the spectrum, no data is visible to any third party or the central bank itself, i.e., full anonymity, which is not a desirable feature, as this would make it impossible to control circulation and to prevent money laundering. It would also impede regulation and enforcement activities. Instead, a model of ‘selective privacy’ involves a higher degree of privacy for low-value / low-risk payments, involving simplified checks (e.g., specific wallet with lower requirements during onboarding). Under this model, higher-value transactions would remain subject to standard controls.

    So far, none of the central banks conducting CBDC research have stated that they intend to collect and store detailed and specific data on citizens.

    „When it comes to the central bank, we propose that we do not have access to personal data.“ Fabio Panetta, ECB 2023.

    Instead, central banks have stated that the data collected will be gathered at an aggregated level to provide a better assessment and a more timely picture of the economic situation. The ECB report „Second update on the work of the digital euro scheme’s Rulebook Development Group” of January 2024 confirmed that the onboarding of end users of the digital euro will take place via supervised intermediaries. These intermediaries, mainly commercial banks, will also be responsible for the provision of Digital Euro Account Numbers (DEAN), user interfaces and alias registration. The collection of personal data will essentially not differ much from the procedure already used by commercial banks.

    Regardless of whether terms such as „selective privacy” or „pseudonymity” are used, it will not be possible to achieve the complete anonymity of physical cash. 

    A permissioned CBDC system, where participation is managed by a trusted entity or set of trusted entities, could yield better results in terms of privacy protection of sensitive financial data: transaction history is generally only viewable by a small number of trusted entities and kept private with respect to others.“ [OECD]

    A counterargument from proponents of CBDC would be that the privacy and data protection of citizens can be better safeguarded compared to the current situation. They will emphasize the fact that private payment providers like Visa, Mastercard, or PayPal will not be able to access transaction data with CBDC to use it for cross-selling campaigns.

    Let’s recall the context: Money = Value = Trust.
    In the case of fiat currency, Trust = Trust in an institution/government.
    With CBDC Trust = TRUST in an institution/government.

    To what extent do you TRUST your government? That is the central question when it comes to privacy and data protection.

    Accessibility

    According to the European Central Bank’s report „Second update on the work of the digital euro scheme’s Rulebook Development Group” from January 2024, consumers will have to go through a similar process to that of digital private bank money to gain access to CBDC. Some of the onboarding steps will be automated and made more convenient and accessible to the public. Nevertheless, three essential components will be indispensable: identification (such as an ID card or digital ID), a digital wallet (for example as an app on a smartphone) and a bank account. In an interview, Nandan Nilekani, CEO of Infosys Technologies, explains this connection succinctly:

    Source: https://www.youtube.com/watch?v=lgnEg4MJvZI&t=2281s

    If you TRUST your government enough and equate accessibility with convenience, one might conclude that access to the CBDC can certainly be facilitated.

    Security

    Like cash, CBDC is also issued by central banks and backed by their authority, creating a new „safe asset” in digital form. CBDC therefore fundamentally competes directly with the private bank money of commercial banks.

    If the role of commercial banks is seen as less important in the further development of the financial system, retail CBDC could be made more investment-like, for example by paying interest on the CBDC amounts of end consumers like a savings offer. This would have far-reaching implications for commercial banks, as their deposit business would be severely impacted in this scenario and their entire business model would be called into question. If commercial banks are to continue to play an important role, CBDC could be limited exclusively to cash-like functions. As commercial banks currently have direct contact with end users, it is mainly up to them to influence the overall acceptance and success of CBDC. Therefore, any central bank is unlikely to introduce a central bank digital currency against the resistance of commercial banks and will consider CBDC exclusively as an alternative to cash in the initial phase.

    Another problem that can cause headaches for commercial banks is the so-called bank run scenario. A bank run occurs when a large number of people start withdrawing their deposits from a bank at the same time for fear that the bank may become insolvent. This can lead to financial difficulties or even the collapse of the bank, as it may not have enough liquid funds to cover all withdrawals (see also chapter 2.2.1.). In times of crisis, such a scenario could quickly become a reality. Instead of queuing in front of ATMs, after the introduction of CBDC, most people could convert their deposits at a commercial bank into the supposedly safer CBDC with a simple mouse click. To prevent this, central banks are likely to introduce a cap on CBDC holdings. In the eurozone, this limit will most likely not exceed EUR 3,000. According to the European Central Bank, transactions above the defined limit can be processed with the so-called waterfall function (waterfall or reverse waterfall) at the user’s request. Amounts above the limit are transferred either from or to the user’s commercial bank account.

    In practice, this means that the digital EURO account is directly linked to the commercial bank account and is considered more as a minor extension. In this scenario, the benefits of a „safe asset” for the end consumer are significantly mitigated.

    In terms of convenience and e-commerce, CBDC does not bring any significant innovations compared to digital private bank money.

    However, transaction costs for both retailers and end consumers could be reduced by the elimination of private payment service providers such as Visa, Mastercard, or PayPal. New technological innovations like Distributed Ledger Technology (DLT), tokenization, and smart contracts could further decrease costs for domestic and especially international money transfers.

    Therefore, the interim conclusion is as follows:

    A proponent of CBDC might argue that compared to digital private bank money, privacy, accessibility, security, and cost structure are improved. A neutral observer might mainly recognize the cost benefits and begin to question how far their trust in the government extends.

    Geopolitical advantages

    Currently, the US dollar is used directly or indirectly in about 88% of all global foreign exchange transactions. This use of the dollar, together with dollarization in some countries and the fact that many central banks hold the dollar as a reserve currency, gives the US a lot of power, even outside its borders. For example, they can exert influence on other countries through sanctions and political pressure. Recent events, such as the war in Ukraine and the West’s reaction to exclude Russia from the financial system, have led many countries to take an interest in CBDC in order to be better protected in the future.

    A functioning settlement system between any two central banks can ensure that economic activity can continue uninterrupted. Even if this system is more expensive than traditional channels, it can still be cheaper than the complicated network of banking relationships currently used to circumvent sanctions. Many countries looking to strengthen their own resilience will undoubtedly consider the importance of a reliable settlement system in the geopolitical landscape.

    The increasing geopolitical instability worldwide has prompted the ECB to accelerate the testing of the conceptual solutions described earlier for the settlement of central bank money for wholesale transactions (Wholesale CBDC).

    Although this aspect mainly concerns the development of wholesale CBDC, it is often used by proponents of retail CBDC as a convincing argument to emphasize the need for CBDC. Nothing unites more than an external enemy.

    Programmability

    In the previous chapters, it has been demonstrated that CBDC technology utilizes some key elements of technology from the crypto ecosystem. These include Distributed Ledger Technology, tokenization, and the use of Smart Contracts. This makes CBDC programmable, leading to various potential scenarios.

    For example, expiry dates could be introduced for stimulus funds, as well as expenditure restrictions for specific locations or regions and limitations on the use for specific goods such as groceries. There could also be restrictions prohibiting the purchase of other items such as alcohol and cigarettes. Such scenarios fuel the arguments of CBDC skeptics.

    At this point, once again, the connection between CBDC and democratic values is emphasized. In the document „Central Bank Digital Currencies (CBDCs) and democratic values”, the OECD addresses this issue as follows:

    Although programmability could enable government or central bank-initiated programmable money that works only in certain ways, this would work against policy objectives of providing uniform CBDCs to citizens and promoting user trust. Payments programmability on the other hand, controlled by the users, could provide enhanced functionality for users to set rules on their payments. In some cases, it is envisaged that Payment Interface Providers and External Service Interface Providers could implement such programmable functionalities themselves, but they would require user consent and not be at the issuer’s direction.

    The European Central Bank (ECB) distinguishes between two concepts: programmable money and programmable payments. With programmable money, conditions for the digital euro (as mentioned above) can be established. On the other hand, programmable payments refer to payments that can be automatically triggered when predefined conditions are met. In short, CBDC is a digital currency in electronic wallets used for transactions. Programmable payments concern the actions that can be performed with CBDC in electronic wallets.

    The ECB has explicitly ruled out programmable money but advocates for programmable payments. According to the ECB, programmable payments can enhance user experience and increase payment efficiency. This occurs at the level of commercial banks and payment service providers (PSPs) and not at the central bank level. It requires user consent and is not mandatory.

    Supporters of CBDC view programmable payments as the foundation for creating innovative financial services.

    Only time will tell what lies behind these innovative financial services.

    Some food for thought in this context can be found in the article „Rethinking the Rise of Global Central Bank Digital Currencies: A Policy Perspective” by Gengxuan et al.

    The authors of this study explore how the combination of CBDC and Smart Contracts can directly influence fiscal policy. Compared to the impacts of CBDC as a medium of exchange, the impacts of CBDC as a policy tool are even more significant and complex.

    Central banks traditionally employ a strategy called „Forward Guidance” to transparently communicate their future monetary policy plans. This communication concerns aspects such as the direction of interest rates or other monetary policy measures. The aim is to influence market expectations to steer economic outcomes such as investments, consumer confidence, or inflation. It is assumed that market participants will rationally respond to this information. However, the authors point out that most consumers, due to their cognitive abilities, only respond to this policy to a limited extent. Inflation expectations often do not factor into their spending and saving decisions.

    The question is how CBDC, in conjunction with Smart Contracts, can be used to incentivize individuals and households to make decisions aligning with the objectives of the central bank. This combination could enable central banks to influence the decision-making process of individuals, which can be rational, bounded rational, or psychologically motivated. Through Smart Contract technology, the costs and benefits of certain decisions for households can be altered. CBDC, coupled with programmable payments, could thus serve as an instrument to enhance the impact of monetary policy at the micro level.

    One potential application scenario could be tax reduction policy. If implemented via CBDC, the conditions of the tax reduction can be integrated into the Smart Contract. For example, it could be stipulated that the tax reduction must be used for consumption or investment purposes and not for debt repayment. Traditionally, tax incentives can influence consumption and investment behavior, but the benefits do not directly impact consumption and investment. Implementing conditional tax reductions through CBDC and Smart Contracts can directly affect consumption. Additionally, targeted tax reductions could be made for various consumer groups, such as low-income families, as they are particularly responsive to tax incentives.

    Through CBDC, government purchases can be processed using Smart Contracts. Such payments can be tailored to political goals, such as supporting small and medium-sized enterprises (SMEs). Often, SMEs cannot directly benefit from targeted tax reductions or purchases, leading to an unequal distribution of political support. CBDC and Smart Contracts could amplify these effects by obligating companies to conduct more business with SMEs.

    These are just a few examples of how retail CBDC could serve as an effective tool for implementing monetary policy measures and political goals at the individual level. This aligns with the concept of „reward and punishment” used in modern biopolitics. From the individual’s perspective, this type of governance appears as a kind of „good shepherd”, whose task is to promote the well-being of the people. The goal of this governmental technique is to encourage individuals to enhance their performance, strengths, and abilities to maximize their contribution to the society’s production apparatus. Through these regulatory methods, norms are established that differentiate between „normal” and „abnormal”. „Correction tools” are defined to help change individual behavior and shape the person as an integral part of the population.

    Norming in the biopolitical context leads to two complementary biopolitical actions:
    a) The promotion (inclusion) of those deemed worthy of promotion.
    b) The exclusion (exclusion) of those considered unworthy of promotion.
    More on this topic can be found here.

    Conclusion:

    The future development of the fiat financial system will be heavily influenced by technological elements that have been developed and tested in the crypto ecosystem. These include distributed ledger technology, tokenization, and smart contracts.

    In the medium to long term, both wholesale CBDC and commercial bank money will be digitized in the form of tokens. Tokens represent assets, physical objects, or intangible values on a programmable platform. As a result, both CBDC and commercial bank money will increasingly be integrated into smart contracts. This will initially be implemented in business-to-business (B2B) transactions and later transition seamlessly into the business-to-customer (B2C) environment.

    The introduction of retail CBDC aims to close the final gap in this tokenization process and be integrated into smart contracts as a digital version of physical cash.

    In addition to optimizing and accelerating internal banking processes and transactions, this transformation of the financial system aims to increase the geopolitical resilience of states or groups of states. The introduction of CBDC is directly linked to the preservation and defense of democratic values in society.

    The new infrastructure will enable central banks to collect aggregated data in order to obtain a more accurate picture of the economic situation. They could also use smart contracts to take prompt corrective action at both a macro and micro level. Implementation may vary depending on the democratic or authoritarian orientation of society. Therefore, trust in the government and its commitment to democratic values is particularly emphasized in this new constellation.

    In any case, CBDC will serve as a powerful instrument of biopolitics in modern societies, enhancing the coordination of all market participants in line with the central bank’s objectives. Through the close connection between central bank and government policies, the implementation of certain political agendas will also be supported.

    5. A glance into the future – Welcome to the tokenisation continuum

    If you are still uncertain about the potential development of European society following the introduction of CBDC and tokenized money in line with democratic values, it is advisable to take a closer look at the future vision of the „Tokenise Europe 2025” initiative. This initiative was launched by the European Commission and the Association of German Banks and is supported by the consulting firm Roland Berger as well as more than 20 member organizations from various countries and industries to advance the tokenization of Europe.

    The future of Europe is described as follows:

    In 2030, we no longer go online”, because being online is an integral part of life. Technology and digital services are embedded in our daily routines, our work, our lifestyle, 24 hours a day.

    A DAY IN THE LIFE OF A TOKENISED EUROPE IN 2030

    07:00
    It’s getting warm outside. Simon is a European citizen and has a biunique digital identity token stored in his smart watch. Simon’s digital personal trainer receives fitness data from his smart watch while he is asleep. Simon’s tokenbased digital twin always calculates the best action for him to engage in next. The trainer creates a daily plan in line with Simon’s preferences and fitness condition. Today’s plan has already been sent to all his electronic devices before the alarm rings. A micro-payment to his digital personal trainer was made automatically even before Simon woke up. Since weather data has also been sent to his smart home and has been adjusted by his local sensor, the air-conditioning is activated. Simon gets some coins for data collected from his local sensor.

    07:30
    Time for breakfast! The refrigerator, aware of the weather and Simon’s fitness condition, will recommend that he eats light meals today. The refrigerator knows what is stored inside it and also knows Simon’s preferences (e.g. for organic food that is digitally certified by the producer via a digital token containing all information about production, transport and delivery). By combining this information with Simon’s digital ID and payment data, the refrigerator can reorder missing foods. Simon’s grocery supplier delivers the food to his door within 20 minutes.

    08:00
    Simon receives a suggestion from his electric transport provider: Simon, you shouldn’t be walking the long way to the office in hot weather conditions. We recommend using an eco-friendly carpool. Please confirm the pre-booking we have made.” In 2030, all digital identities – those of people and machines alike – are stored in digital wallets. These wallets also include digital money, driving licences, insurance policies and details of the registered address etc. – in Simon’s case all in accordance with his personal preferences and the rules he himself has pre-defined as owner of the data. The electric car, which has recharged itself at the parking space overnight, is ready and waiting for him.

    08:15
    To ensure an optimal distribution of cars within the city, dynamic pricing modules calculate usage fees based on location and/or nearby events. After the car key has been sent to Simon’s smartphone as a digital twin, the usage fee is calculated in addition to the dynamic price-per-kilowatt-hour based on consumption. The insurance fee is payable via a separate insurance token and depending on his driving style. Today, he received a discount, because he is also the owner of a security token from the car sharing company, and today they paid a dividend.

    08:30
    Simon works in the logistics department of a textile company that manufactures its products outside Europe and has a global supply chain. In the days before tokenisation, global supply chains were challenging to manage because of the many suppliers, intermediaries and public authorities involved across many different countries – complexities that came on top of non-digital/paper processes, language barriers, legal differences and time-zone differences. In combination with digital contracts and transactions, tokenisation has vastly improved the transparency, safety and efficiency of such transactions.

    09:00-17:00
    From his office in Berlin, Simon can track every link in the production chain. Ms. Jin picks the cotton from a field in the Huang-Huai-Hai region and the cotton is delivered to the factory by Mr. Xiao. An embedded token contains information about which workers have worked on the product and been involved in transporting it by truck to the harbour and the ship etc. This is especially useful to ensure that sustainable and ethical production and transport standards have been fulfilled every step of the way. Since the contracts with the suppliers are defined as smart contracts in a distributed ledger technology network, all payments are automated. If the contractual requirements are met, the payment will automatically be booked from the company’s wallet while Simon is enjoying a coffee at the office. After making sure everything is fine with the transaction, Simon joins his business meeting, which takes place in a metaverse application.

    17:00
    At the end of his working day, Simon’s digital personal trainer reminds him to attend his sports class, which is also in the metaverse. His trainer, who lives in the USA, will be waiting for him, so both can have a digitally enabled training session as if they were in the same physical place.

    20:00
    After working out, Simon has dinner with Zeynep. The bill for the delicious dinner is sent directly to Simon’s wallet, where he chooses the tip amount and pays in digital euros. The wallet provider – his bank – sends him a notification every time a payment or other change is made in the wallet. Furthermore, his personal electronic wallet consists not only of means of payment, but also of a variety of tokenised assets: stocks, stablecoins, exchange traded funds (ETFs) and corporate bonds. Some of his friends even own fractions of classic cars, artworks, houses and other items in the same way. This is possible because, nowadays, previously illiquid asset classes, high-priced assets and expensive transactions can be digitally acquired and processed in small fractions at almost no transaction cost.

    After arriving home, Simon has a last look at the latest news broadcast in the metaverse based on his self-defined preferences. He then calls it a day.

    6. Epilogue

    Does this future vision, developed by the European Commission and the Association of German Banks, align with your expectations? Do you aspire to lead a comparable everyday life to Simon’s?

    If so, congratulations! You’re likely to experience an unconditional love story with CBDC and the associated system.

    If this vision evokes mixed feelings for you, your relationship with CBDC and the associated system may be more of a love story with reservations. Despite the perceived benefits of the new system, you may hope for the government to demonstrate a strong understanding of democracy and mitigate or at least consider the potential drawbacks of the system.

    History has taught us, however, that the understanding of democracy can evolve over time. It is influenced by various factors, including societal developments, political events, cultural changes, and individual experiences. For example, technological advancements, economic conditions, or political crises can impact the perception and interpretation of democracy. Media and political discourses can contribute to shifting perceptions and expectations regarding democracy over time.

    If you reject the vision, you may still trust that the government will keep its promise that the digital euro will not replace cash, even though there is no mention of cash in the vision.

    Digitalization gives us the opportunity to shape democracy in a completely new way.
    Yuval Noah Harari, author of „Sapiens: A Brief History of Humankind


    Sources (as of 25.05.2024)

  • CBDC – Eine Liebesgeschichte mit Vorbehalten

    CBDC – Eine Liebesgeschichte mit Vorbehalten

    Die Menschen müssen das Finanzwesen verstehen. Ich glaube, dass derzeit vielleicht ein Prozent der Bevölkerung wirklich versteht, wie das Finanzsystem funktioniert.
    Yuval Noah Harari, BIS Innovation Summit, May 2024

    Vorwort

    Am Anfang war das Bedürfnis. Es ist der Urinstinkt, der seit den Anfängen der Menschheit besteht – der Wunsch, unser Überleben zu sichern, unser Wohlbefinden zu steigern und unsere Zufriedenheit zu finden. Diese ursprünglichen Bedürfnisse nach Nahrung, Schutz und sozialer Bindung waren der Motor für unsere Suche nach Lösungen. Wir begannen gemeinsam Nahrung anzubauen, uns zu schützen und soziale Netzwerke zu knüpfen.

    Während wir begannen, Güter und Dienstleistungen herzustellen, spezialisierten wir uns auf das, was wir am besten konnten. Diese Spezialisierung ermöglichte es uns, unsere Fähigkeiten zu perfektionieren und mehr von dem zu produzieren, was wir am besten konnten. Wenn jemand besonders gut darin war, Kleidung herzustellen, und ein anderer hervorragend im Anbau von Nahrung, war der Handel die logische Konsequenz. Durch den Austausch konnten wir unsere Ressourcen optimal nutzen und gleichzeitig unsere Vielfalt an Produkten und Dienstleistungen erweitern.

    In den frühesten Gesellschaften begann der Handel auf lokaler Ebene, wo Gemeinschaften ihre Überschüsse tauschten, um ihre individuellen Bedürfnisse zu befriedigen. Der Handel brachte nicht nur eine größere Vielfalt an Produkten und Dienstleistungen, sondern auch Wirtschaftlichkeit. Kurz gesagt, der Handel ist eine natürliche Antwort auf unsere Bedürfnisse und ein wesentlicher Bestandteil menschlicher Interaktion und Zusammenarbeit. Früher basierte der Handel hauptsächlich auf dem Tausch. Doch das stellte seine eigenen Herausforderungen dar.

    Dann kam das Geld. Geld machte den Handel einfacher und effizienter, indem es einen festen Wert repräsentierte und den direkten Tausch überflüssig machte. Es ermöglichte uns auch, Ersparnisse zu haben und für die Zukunft zu planen. Die Geschichte des Geldes erstreckt sich von der neolithischen Revolution vor etwa 10.000 Jahren bis in die Gegenwart, wobei sich das Geldsystem ständig weiterentwickelt und an den technologischen Fortschritten anpasst.

    Anfangs wurden Muscheln, Getreide oder Vieh als Zahlungsmittel verwendet. Später kamen Münzen und Papiergeld auf. Mit der Zeit entstand das Bankwesen, und moderne Währungen, wie wir sie heute kennen. Mit dem Aufkommen von Computern, dem Internet, Smartphones und drahtloser Kommunikation im 21. Jahrhundert begann die Digitalisierung des Finanzwesens. Dies führte zur Entstehung verschiedener elektronischer Zahlungsmethoden wie Kreditkarten, Online-Überweisungen und Kryptowährungen. Seit 2021 wird vermehrt über die Einführung von CBDC (Central Bank Digital Currency – Digitales Zentralbankgeld) für die breite Öffentlichkeit diskutiert.

    Dieser Artikel bietet eine verständliche Übersicht über die Entwicklung der Geldsysteme sowie über wesentliche technologische Entwicklungen, die als Basis für das zukünftige Finanzsystem dienen werden. Es werden Hintergründe und interessante Zusammenhänge beleuchtet, die die treibende Kraft hinter den weltweiten Bestrebungen bilden, CBDC als nächsten Meilenstein in der Geschichte des Geldes einzuführen. Und wir werden einen Blick auf die potenziellen Auswirkungen werfen, die die Einführung von CBDC auf unser wirtschaftliches, politisches, soziales und kulturelles Leben haben könnte.

    1. Geldsysteme und deren Entwicklung
    1.1. Was ist Geld?
    1.2. Warengeld
    1.3. Repräsentativgeld
    1.4. Fiatgeld

    2. Das Fiat-SystemAlice im Wunderland
    2.1. Primäre Geldschöpfung
    2.2. Sekundäre Geldschöpfung
    2.2.1. Sekundäre Geldschöpfung über Kunden-Einlagen
    2.2.2. Sekundäre Geldschöpfung über Kreditvergabe
    2.3. Einfluss der Zentralbankpolitik auf die Geldmenge
    2.4. Die Risiken der lockeren Geldpolitik und ihre Auswirkungen
    2.5. Der Digitalisierungstrend

    3. KryptowährungenAlle Wege führen nach Rom
    3.1. Distributed Ledger Technologie (DLT)
    3.2. Blockchain-Technologie
    3.3. Das TokenThe Swiss Army Knife
    3.4. Zentralisiertes vs. Dezentralisiertes Ledger-System
    3.5. Bitcoin (BTC)Get Rich or Die Tryin’
    3.6. Tether (USDT)Safe Haven (In God We Trust)
    3.7. LibraThe King is Dead, Long Live the King!
    3.8. EthereumCode is Law
    3.8.1. ChainlinkOracles, mediators between the gods and humans
    3.8.2. Hinter den KulissenBehind the Scenes
    3.9. Zwischenbilanz

    4. CBDC – The Digital EURO A New Star is Born
    4.1. Wholesale CBDCDie Natur macht keinen Sprung (oder doch)
    4.2. Commercial Bank Money Token (CBMT) – Wer nicht mit der Zeit geht, geht mit der Zeit
    4.3. Retail-CBDC – Heaven Is a Place on Earth

    5. Ein Blick in die ZukunftWelcome to the tokenisation continuum

    6. Epilog

    1. Geldsysteme und deren Entwicklung

    1.1. Was ist Geld?

    Geld ist im Grunde genommen ein Werkzeug, das es uns erleichtert, Dinge zu bekommen, die wir wollen oder brauchen, ohne sie direkt gegen andere Dinge eintauschen zu müssen. Stellen Sie sich vor, Sie haben einen Apfel, den Sie gegen eine Banane tauschen möchten, aber Ihr Freund hat keine Banane, sondern etwas anderes, was Sie nicht unbedingt brauchen. Hier kommt Geld ins Spiel. Sie können Ihren Apfel gegen Geld eintauschen. Anschließend können Sie dieses Geld verwenden, um eine Banane von jemand anderem zu kaufen, der Bananen hat. Geld fungiert also gewissermaßen als „Mittelsmann“ beim Austausch von Gütern. Es ermöglicht uns, Waren und Dienstleistungen auf einfache Weise zu kaufen und zu verkaufen, ohne dass wir uns um den direkten Tausch von Gütern kümmern müssen.

    Das obige Beispiel funktioniert, weil Geld als allgemein akzeptiertes Tauschmittel dient. Es hat einen vereinbarten Wert, den die Menschen akzeptieren, und es erleichtert den Austausch von Waren und Dienstleistungen, selbst wenn diese nicht direkt getauscht werden können.

    In dem Beispiel haben alle Beteiligten Vertrauen in die Akzeptanz des Geldes als Zahlungsmittel. Wenn Sie Ihren Apfel gegen Geld eintauschen, gehen Sie davon aus, dass Sie später dieses Geld verwenden können, um etwas anderes zu kaufen, das Sie möchten, wie zum Beispiel eine Banane.

    Geld repräsentiert einen Wert. Doch damit Geld einen Wert hat, müssen die Menschen darauf vertrauen, dass es tatsächlich einen Wert hat und auch in Zukunft einen Wert behält, den sie nutzen können -> Geld = Wert = Vertrauen.

    Jedes Geldsystem, das sich im Laufe der Geschichte entwickelte, war eine Antwort auf die Bedürfnisse und Herausforderungen seiner Zeit. Lassen Sie uns nun einen kurzen Blick darauf werfen, wie sich Geldsysteme im Laufe der Zeit entwickelt haben.

    1.2. Warengeld

    Wie bereits erwähnt, entstanden Geldsysteme aus der Notwendigkeit heraus, den Handel und den Austausch von Waren und Dienstleistungen zu erleichtern. Im Vergleich zum geldlosen Tauschhandel erwies sich die Verwendung einer bestimmten gut tauschbaren Ware als effizienter. Beispiele für solche Tauschmittel waren Muscheln, Vieh, Getreide, Kakaobohnen oder Edelmetalle wie Gold und Silber. Diese Objekte hatten einen intrinsischen Wert (tatsächlichen, fundamentalen Wert) oder wurden als wertvoll angesehen, was sie zu einem akzeptablen Tauschmittel machte. Diese älteste Erscheinungsform des Geldes nennt man Warengeld.

    Abb. 1: Warengeld

    Edelmetalle stellten sich als besonders geeignet für die Verwendung als Warengeld heraus, hauptsächlich aufgrund ihrer hohen Haltbarkeit. Allerdings mussten diese Metalle mühsam gewogen und bei Bedarf geteilt werden. Daher war der nächste logische Entwicklungsschritt die Herstellung von Münzen oder Barren, die einen festgelegten Edelmetallgehalt und einen bestimmten Nennwert aufwiesen.

    1.3. Repräsentativgeld

    Im Verlauf der Geschichte empfanden die Menschen es als mühsam, Goldbarren oder andere Warenformen des Geldes über weite Strecken zu transportieren. Aus diesem Grund entstand im Laufe der Zeit aus diesen Tauschmitteln das Papiergeld, das als Basis für das Repräsentativgelddiente. Beim Repräsentativgeld wird der Wert durch einen physischen Gegenstand oder eine Ware repräsentiert. Ein einfaches Beispiel für Repräsentativgeld ist ein Goldzertifikat.

    Angenommen, Sie besitzen ein Goldzertifikat, das besagt, dass es einen Anspruch auf eine bestimmte Menge Gold hat, beispielsweise eine Unze Gold. Das Zertifikat selbst ist kein physisches Gold, sondern eine Versprechung, dass der Inhaber dieses Zertifikats eine bestimmte Menge Gold von einer bestimmten Stelle erhält, beispielsweise von einer Bank oder einem Goldlager.

    Jetzt können Sie dieses Goldzertifikat verwenden, um Waren oder Dienstleistungen zu kaufen. Wenn Sie beispielsweise ein Fahrrad kaufen möchten, können Sie dem Verkäufer das Goldzertifikat geben. Der Verkäufer akzeptiert das Zertifikat, weil er darauf vertraut, dass er es später bei der Bank oder dem Goldlager gegen eine tatsächliche Unze Gold einlösen kann.

    Auf diese Weise repräsentiert das Goldzertifikat den Wert des Goldes. Es erleichtert den Handel, ohne dass tatsächlich physisches Gold den Besitzer wechseln muss.

    Banknoten und Münzen können ebenfalls die Rolle des Goldzertifikats im obigen Beispiel übernehmen. Angenommen, anstelle eines Goldzertifikats besitzen Sie Banknoten, die von der Bank ausgegeben wurden und den Wert einer bestimmten Menge Gold repräsentiert (z. B. 1.000 US-Dollar für einen Goldbarren). Diese Banknoten können dann als Zahlungsmittel verwendet werden, um Waren oder Dienstleistungen zu kaufen. Der Verkäufer akzeptiert die Banknoten, weil er darauf vertraut, dass er sie bei Bedarf bei der Zentralbank gegen den entsprechenden Wert in Gold einlösen kann.

    Das Geld selbst hat keinen inneren Wert, sondern repräsentiert den Wert des hinterlegten Vermögenswerts und wird als Tauschmittel verwendet.

    Abb. 2: Repräsentativgeld

    Banknoten erwiesen sich nicht nur als viel handlicher, sondern ermöglichten es den Menschen auch, zum Beispiel einen Dollarschein für eine Tasse Kaffee auszugeben, ohne ihren Goldbarren in tausend Stücke schneiden zu müssen. Wenn sie ihr Geld zurückhaben wollten, brachten sie einfach die Dollarscheine zurück zur Bank, um sie gegen die tatsächliche Form des Geldes, in diesem Fall den Goldbarren, einzulösen, wann immer sie es benötigten. Auf diese Weise begann man, Papier als praktisches und bequemes Zahlungsmittel zu nutzen.

    1.4. Fiatgeld

    Doch im 20. Jahrhundert hat eine Kombination von wirtschaftlichen und politischen Faktoren dazu geführt, dass diese Verbindung zwischen dem Papiergeld und dem Gold, für das es steht, aufgehoben wurde.

    Während der beiden Weltkriege waren viele Länder gezwungen, einen beträchtlichen Teil ihrer Goldreserven zu verwenden, um die Kosten des Krieges zu decken.  Um mehr Geld in Umlauf zu bringen, haben einige Länder vorübergehend den Goldstandard aufgegeben. Diese Maßnahme hatte jedoch zur Folge, dass Inflation und Währungsinstabilität anstiegen.

    Während wirtschaftlicher Krisen wie der Großen Depression oder in Phasen wirtschaftlicher Abschwünge waren Länder aufgrund der starren geldpolitischen Vorgaben des Goldstandards nicht in der Lage, flexibel und effektiv zu reagieren. Dies führte zu längeren Rezessionen und einem Anstieg der Arbeitslosigkeit.

    Nach dem Zweiten Weltkrieg verzeichnete die Weltwirtschaft wiederum ein kräftiges Wachstum und einen Anstieg des internationalen Handels. Die strikten Einschränkungen des Goldstandards erwiesen sich jedoch als nachteilig für die Flexibilität der Geldpolitik, um auf solche wirtschaftlichen Veränderungen zu reagieren.

    Aus politischer Sicht wurde der Goldstandard als eine Einschränkung betrachtet, die die Handlungsfreiheit der Regierungen einschränkte und sie daran hinderte, eine proaktive Wirtschaftspolitik zu betreiben.

    Es reicht zu sagen, dass Regierungen ihren Bürgern versichert haben, dass sie selbst für den Wert dieses Papiergeldes garantieren würden. Die Gesellschaft hat sich darauf eingelassen, mit Papiergeld zu handeln, das allein auf dem Versprechen der Regierungen beruht. So entstand das sogenannte Fiatgeld.

    Fiatgeld ist Geld, das seinen Wert nicht durch einen physischen Wert wie Gold oder Silber erhält, sondern durch das Vertrauen und die Akzeptanz der Menschen sowie die Autorität der Regierung, die es herausgibt. Ein einfaches Beispiel für Fiatgeld ist das Papiergeld oder die Münzen, die wir täglich verwenden. Der Wert dieser Banknoten und Münzen wird durch das Vertrauen gestützt, dass sie als Zahlungsmittel akzeptiert und von der Regierung garantiert werden, die sie herausgibt. Solange die Menschen Vertrauen in die Stabilität und den Wert des Fiatgeldes haben, behält es seinen Wert und seine Funktion als Tauschmittel.

    Abb. 3: Fiatgeld

    Eine kompakte und dennoch ausführliche Begriffserklärung und Übersicht zu diesem Thema bietet der Video-Beitrag „Was ist Geld? Der Wert des Geldes einfach erklärt“ von Finance Fellows.

    2. Das Fiat-System Alice im Wunderland

    Würden die Menschen das Geldsystem verstehen, hätten wir eine Revolution noch vor morgen früh.
    Henry Ford

    Im Laufe der Zeit hat sich das Vertrauensmodell gewandelt – von der Vertrauenswürdigkeit eines materiellen Objekts wie Gold hin zu einem Vertrauen in Institutionen wie Zentralbanken.

    Im Fiat-System legen Regierungen den Wert einer Währung fest und erklären sie zum gesetzlichen Zahlungsmittel. Dabei obliegt es der Regierung zu bestimmen, ob ein Zahlungsmittel innerhalb eines Landes oder einer Gerichtsbarkeit für Finanztransaktionen, Handelsabwicklungen oder den allgemeinen Handel anerkannt wird.

    Das Fiat-Bankensystem umfasst eine Reihe von Banken, einschließlich Zentralbanken und Geschäftsbanken, siehe folgende Abbildung.

    Abb. 4: Bankensystem im Rahmen des Fiat-Finanzsystems

    Die Zentralbank ist die höchste Bank eines Landes und verantwortlich für die Steuerung der Geldpolitik sowie die Regulierung der Geldmenge im Umlauf. Sie ist die einzige Institution, die gesetzliches Zahlungsmittel herausgeben kann. Die Zentralbank beeinflusst den Geldfluss, indem sie Zinssätze festlegt, Geld druckt oder aus dem Umlauf nimmt und andere geldpolitische Maßnahmen ergreift, um die Stabilität der Währung und der Wirtschaft zu fördern. Dazu gehört auch die Überwachung des Bankensystems. Zentralbanken werden in der Regel als unabhängige Institutionen von der Regierung eines Landes eingerichtet und beaufsichtigt. Sie arbeiten oft mit anderen Regierungsbehörden und internationalen Institutionen zusammen, um die wirtschaftliche Stabilität zu unterstützen.

    Geschäftsbanken sind private Banken, die Finanzdienstleistungen für Einzelpersonen, Unternehmen und andere Organisationen anbieten. Sie nehmen Einlagen entgegen, gewähren Kredite, ermöglichen Transaktionen und bieten andere Bankdienstleistungen an. Diese Banken nutzen die von der Zentralbank ausgegebenen Währungseinheiten, um Geschäfte zu tätigen und Transaktionen abzuwickeln.

    Jede Geschäftsbank ist verpflichtet, ein Konto bei der Zentralbank zu führen, das als Zentralbankkonto bezeichnet wird. Auf diesem Konto hat die Geschäftsbank ein Guthaben, das sie verwenden kann, um Bargeld von der Zentralbank zu erhalten oder dorthin zu überweisen. Dieses Guthaben und das physische Bargeld, das von der Zentralbank stammt, werden zusammen als Zentralbankgeld bezeichnet, da es ausschließlich von der Zentralbank geschaffen wird.

    Abb. 5: Zentralbankkonten der Geschäftsbanken

    Die Zentralbankguthaben der Geschäftsbanken können auf verschiedene Weise entstehen. Einerseits gewährt die Zentralbank diesen Banken Kredite, die dann als Guthaben auf dem Konto der Geschäftsbank verbucht werden. Um diese Kredite zu erhalten, müssen die Geschäftsbanken Sicherheiten wie Wertpapiere hinterlegen und Zinsen dafür zahlen.

    Wertpapiere sind Papiere, die einen bestimmten Wert repräsentieren. Sie können zum Beispiel Aktien, Anleihen oder Investmentfondsanteile sein.
    Aktien sind Anteile an einem Unternehmen. Wenn man eine Aktie kauft, besitzt man einen kleinen Teil dieses Unternehmens.
    Anleihen sind Schuldtitel. Wenn man eine Anleihe kauft, leiht man dem Herausgeber (zum Beispiel einem Staat oder einem Unternehmen) Geld und bekommt im Gegenzug Zinsen und das geliehene Geld später zurück.
    Investmentfondsanteile sind Teile eines Fonds, der von einem Fondsmanager verwaltet wird. Dieser Fonds investiert das Geld vieler Anleger in eine Vielzahl von Wertpapieren, um das Risiko zu streuen.

    Andererseits können Zentralbankguthaben auch entstehen, wenn die Zentralbank Vermögenswerte wie Immobilien, Staatsanleihen oder Gold von Geschäftsbanken erwirbt. In diesem Fall schreibt die Zentralbank den Kaufbetrag auf dem Konto der betreffenden Geschäftsbank gut.

    Abb. 6: Entstehung von Guthaben auf Zentralbankkonten

    Zusätzlich sind Geschäftsbanken verpflichtet, ein Mindestguthaben auf ihrem Zentralbankkonto vorzuhalten, das als Mindestreserve bezeichnet wird. Diese Mindestreserve wird von der Zentralbank festgelegt. Dafür addiert sie die Einlagen aller Geschäftsbankkonten und diese Summe wird mit einem festgelegten Prozentsatz multipliziert.

    Abb. 7: Mindestreserve-Bankwesen

    Die Funktion eines Zentralbankguthabens besteht darin, dass Geschäftsbanken ihren Kunden bei Bedarf Bargeld zur Verfügung stellen können. Wenn Kunden beispielsweise Geld abheben möchten, müssen die Geschäftsbanken sicherstellen, dass sie genügend Bargeldreserven haben, um diesen Bedarf zu decken. Dies erfordert, dass die Geschäftsbanken auf ihre Guthaben bei der Zentralbank zugreifen und diese verwenden, um Bargeld zu beschaffen.

    Des Weiteren werden die Zentralbankguthaben der Geschäftsbanken für den bargeldlosen Zahlungsverkehr zwischen den Banken benötigt. Wenn eine Geschäftsbank Geld an eine andere Geschäftsbank überweisen möchte, wird diese Transaktion in der Regel über ihre Guthaben bei der Zentralbank abgewickelt.

    Fiat Lux – Geld aus dem Nichts

    In Anlehnung an das biblische Sprichwort „Fiat Lux“ bezieht sich der Begriff „Fiatgeld“ darauf, dass Geld gewissermaßen „aus dem Nichts entsteht“. Die nachfolgenden Erläuterungen verdeutlichen diesen Prozess.

    2.1. Primäre Geldschöpfung

    Der Prozess beginnt mit einem Regierungsauftrag. Angenommen, die Regierung beschließt, um die Wirtschaft anzukurbeln, zusätzliche 100 Millionen Euro in Umlauf zu bringen. Für die Umsetzung dieses Auftrags ist die Zentralbank verantwortlich, die beispielsweise diese Summe den Geschäftsbanken als Kredit zur Verfügung stellt. Dadurch wächst das Guthaben auf den Zentralbankkonten der Geschäftsbanken. Diese können einen Teil oder die ganze Summe in Form von Bargeld von ihren Zentralbankkonten abheben. Um das zusätzliche Bargeld zur Verfügung zu stellen, werden anschließend die entsprechenden Banknoten gedruckt und mit Geldtransportern zu den Tresoren der Geschäftsbanken transportiert.

    Die 100 Millionen Euro werden buchstäblich aus dem Nichts geschaffen, da es nicht durch einen intrinsischen Wert wie Gold oder Silber gedeckt ist. Aber das ist nur der erste Teil der Geldschöpfungskette.

    Abb. 8: Primäre Geldschöpfung: In diesem Beispiel entnimmt die Geschäftsbank 20% der Summe in bar, um kurzfristig Bargeldabhebungen ihrer Kunden zu bedienen. Die verbleibenden 80% der Summe dienen als Sicherheit bei der Zentralbank und ermöglichen es der Geschäftsbank, Kredite an ihre Kunden zu vergeben.
    2.2. Sekundäre Geldschöpfung

    Wie bereits erwähnt, fungieren die Geschäftsbanken im Rahmen des Fiatfinanzsystems als Vermittler zwischen der Zentralbank und der breiten Öffentlichkeit. Sie nehmen Einlagen von Einzelpersonen und Unternehmen entgegen und halten einen Teil dieser Einlagen als Reserve. Die Banken nutzen den Rest, um Kredite zu vergeben und Zinseinnahmen zu erzielen. Auf diese Weise spielt das Bankensystem eine wichtige Rolle bei der Schaffung und Verteilung von Geld im Wirtschaftskreislauf.

    2.2.1. Sekundäre Geldschöpfung über Kunden-Einlagen

    Angenommen, Alice hat von ihrer Oma zum Geburtstag 100 EUR in bar erhalten. Da sie das Bargeld nicht ständig bei sich tragen möchte, entscheidet sie sich, es auf ihr Bankkonto bei Bank A einzuzahlen. Dadurch wird das Bargeld in Buchgeld umgewandelt, das auch als Giralgeld bezeichnet wird.

    In ihrer Bilanz verbucht die Bank die Einzahlung von Alice auf der Passivseite. Für die Bank stellt diese Einzahlung eine Verbindlichkeit dar, da sie Alice 100 EUR Bargeld schuldet. Um die Bilanz auszugleichen, bucht die Bank die 100 EUR in ihre Reserven. Dadurch werden die 100 EUR physisch im Tresor der Bank hinterlegt und erhöhen das Vermögen der Bank.

    Abb. 9: Umwandlung von Bargeld in Buchgeld

    In den meisten Rechtsordnungen wird eine Bankeinlage nicht als Kaution betrachtet. Das bedeutet, dass das eingezahlte Geld nicht länger im Besitz des Kunden bleibt. Stattdessen geht das Geld in den Besitz der Bank über, und der Kunde erhält im Austausch einen Vermögenswert, der als Einlagenkonto (Giro- oder Sparkonto) bekannt ist. Dieses Einlagenkonto wird in der Bilanz der Bank als Verbindlichkeit ausgewiesen. Einfach ausgedrückt bedeutet dies, dass ein Kunde sein Geld praktisch der Bank gibt, die es in ihrem Besitz behält. Im Gegenzug erhält der Kunde von der Bank das Versprechen, sein Geld zu einem späteren Zeitpunkt oder nach Bedarf zurückzuerhalten. Dieses Versprechen wird in der Regel durch das Einlagenkonto des Kunden dokumentiert, dass eine Verbindlichkeit der Bank darstellt.

    Da das Geld nun praktisch der Bank gehört, setzt sie es ein, um Gewinne zu erzielen, indem sie es weiter verleiht. Hier kommt das Konzept der Mindestreserve ins Spiel. Mindestreserven sind ein wesentlicher Bestandteil des Bankwesens und werden weltweit angewendet. Es besagt, dass Banken, die Einlagen von der Öffentlichkeit entgegennehmen, nur einen Teil dieser Einlagen als Reserve in liquiden Mitteln halten müssen. Diese Bankreserven können entweder als Bargeld in den Tresoren der Geschäftsbank oder als Guthaben auf dem Konto der Geschäftsbank bei der Zentralbank gehalten werden. Wie bereits beschrieben, hat die Zentralbank eines Landes die Befugnis, einen festgelegten Betrag an Reserven zu bestimmen, den Banken halten müssen. Dieser Betrag wird als „Mindestreserveanforderung“ oder „Mindestreservesatz“ bezeichnet. [Fractional-reserve banking]

    In unserem Beispiel gehen wir davon aus, dass der Mindestreservesatz 10% beträgt. Das bedeutet, dass die Bank von Alice Einlagen einen Betrag in Höhe von 90 EUR als Kredit vergeben kann. Wenn der Kreditnehmer mit diesen 90 EUR ein Fahrrad kauft und das Geld auf das Konto des Fahrradverkäufers bei Bank B überweist, entsteht eine Verbindlichkeit der Bank B gegenüber dem Fahrradverkäufer in Höhe von 90 EUR. Um ihre Bilanz auszugleichen, bucht Bank B diese 90 EUR als Reserve um, was sie als Teil ihres Vermögens verbucht.

    Aus den ursprünglichen 100 EUR Bargeld sind nun 190 EUR Buchgeld entstanden. Nach dem nächsten Zyklus werden daraus 271 EUR.

     Abb. 10: Sekundäre Geldschöpfung über die Einlagen

    Nach jeder neuen Kreditvergaberunde erhöht sich die Buchgeldmenge. Bei einem Mindestreservesatz von 10% können aus 100 EUR Zentralbankgeld (in Form von Bargeld) bis zu 1.000 EUR Buchgeld entstehen.

    Die maximale Menge an Buchgeld, die aus dem Nichts entstehen kann, hängt vom Mindestreservesatz ab. Der Geldschöpfungsmultiplikator wird wie folgt berechnet:

    Abb. 11: Geldschöpfungsmultiplikator

    Dieses Beispiel demonstriert die sekundäre Geldschöpfung aus den Kunden-Einlagen bei den Geschäftsbanken. Wie dieser Vorgang sich im Falle einer Kreditvergabe abspielt, kann man wie folgt veranschaulichen.

    2.2.2. Sekundäre Geldschöpfung über Kreditvergabe

    Angenommen, die Familie von Alice möchte ein Haus kaufen und beantragt einen Kredit von 100.000 EUR bei ihrer Geschäftsbank. Die Bank genehmigt den Kredit und bucht den Betrag von 100.000 EUR auf das Bankkonto der Familie. In diesem Szenario verwendet die Bank das Geld nicht aus den Einlagen ihrer Kunden, sondern leiht es sich von der Zentralbank.

    Bei einem Mindestreservesatz von 10% benötigt die Geschäftsbank lediglich 10.000 EUR Zentralbankgeld, um einen Kredit von 100.000 EUR in Form von Buchgeld zu vergeben. Dadurch entstehen zusätzlich 90.000 EUR Buchgeld aus dem Nichts. Die Bank verbucht die Kreditsumme auf der Aktivseite ihrer Bilanz, das bedeutet, dass die Bank den Anspruch auf die Rückzahlung des Kredits als Vermögenswert in ihrer Bilanz ausweist. Die Bank kann also einen Teil des bewilligten Kredits als Grundlage für die Vergabe neuer Kredite verwenden. Dabei entsteht neues Buchgeld, da die Bank Kredite vergibt, die über die ursprüngliche Einlage hinausgehen. Dieser Prozess wird als Multiplikator der Kreditvergabe bezeichnet und trägt zur Erweiterung der Geldmenge in der Wirtschaft bei.

    Die Familie kann nun Handwerks- und Baufirmen bezahlen, die wiederum Baumaterialien kaufen und Löhne an ihre Mitarbeiter zahlen. Das Buchgeld gelangt dann zu anderen Geschäftsbanken, die es gemäß dem im Kapitel 2.2.1. beschriebenen Prinzip erneut verleihen können.

    Abb. 12: Sekundäre Geldschöpfung über Kreditvergabe

    In Summe bedeutet dies, dass wesentlich mehr Geld verliehen werden kann, als ursprünglich in Umlauf gebracht wurde.

    2.3. Einfluss der Zentralbankpolitik auf die Geldmenge

    Durch die Definition des Mindestreservesatzes kann die Zentralbank indirekt die Buchgeldmenge beeinflussen.

    Neben den Mindestreservesatz kann die Zentralbank durch den sogenannten Leitzins Einfluss auf die Geldpolitik ausüben. Der Leitzins ist der Zinssatz, zu dem Geschäftsbanken sich Geld von der Zentralbank leihen können. Wenn die Zentralbank den Leitzins senkt, wird das Kreditangebot erhöht und die Wirtschaft angekurbelt, da es für Geschäftsbanken günstiger wird, sich Geld zu leihen und es an Unternehmen und Verbraucher weiterzugeben. Wenn die Zentralbank den Leitzins erhöht, dämpft dies normalerweise die Inflation, indem es teurer wird, sich Geld zu leihen, was die Ausgaben der Verbraucher und Investitionen der Unternehmen reduziert. Der Leitzins hat also einen erheblichen Einfluss auf die Kreditkosten, die Verfügbarkeit von Krediten und damit auf das gesamte wirtschaftliche Umfeld. Soweit die Theorie.

    In unseren Rechenbeispielen wurde eine Mindestreserve von 10% angenommen. Die Europäische Zentralbank EZB schreibt eine Mindestreserve von lediglich 1 Prozent vor.

    Fazit: Fiatgeld entsteht durch eine Kombination aus Regierungsbefugnis, Maßnahmen der Zentralbank, Kreditvergabe durch Geschäftsbanken und Mindestreserve-Bankwesen. Es basiert auf Vertrauen in die Regierung und das Finanzsystem, nicht auf einem intrinsischen Wert der Währung.

    2.4. Die Risiken der lockeren Geldpolitik und ihre Auswirkungen

    Einige betrachten diese Dynamik als eine kollektive Illusion. Doch worauf stützt sich diese Behauptung?

    Zentralbanken, indem sie die Geldmenge kontrollieren und Zinssätze beeinflussen, können durch eine lockere Geldpolitik zu einer Überkreditvergabe und übermäßigen Verschuldung führen. Das Fiatgeldsystem erlaubt es Banken, ohne angemessene Sicherheiten oder Risikoprüfungen beträchtliche Kreditmengen zu vergeben, was zu einem Anstieg riskanter Kredite führt.

    Diese Praxis ermöglicht die Entstehung komplexer Finanzprodukte, die Risiken verbreiten und verschleiern können, was die Anfälligkeit des Finanzsystems für Schocks erhöht. Zusätzlich schaffen Rettungsaktionen der Regierung Anreize für riskantes Verhalten, da Banken und Finanzinstitute davon ausgehen können, im Falle von Problemen unterstützt zu werden, was zu einer übermäßigen Risikobereitschaft und Engagement in riskanten Geschäften führt.

    Eine ausgewogene Geldmenge im Umlauf gilt als entscheidender Motor für wirtschaftliches Wachstum. Doch ein rasantes Anwachsen der Geldmenge ohne entsprechendes reales Wirtschaftswachstum kann zu einer Überbewertung von Vermögenswerten wie Aktien, Immobilien oder Rohstoffen führen. Dies birgt die Gefahr von Vermögensblasen, deren Instabilität sich langfristig zeigen kann und zu plötzlichen Kurskorrekturen oder wirtschaftlichen Turbulenzen führen kann.

    In den ersten Jahren dieses Jahrhunderts zeigte sich ein solches Szenario. Über einen längeren Zeitraum spekulierten Geschäftsbanken darauf, dass die Preise für Wohnimmobilien in den USA unaufhaltsam steigen würden. Eine lockere Geldpolitik mit niedrigen Zinsen und großzügiger Kreditvergabe ermöglichte es selbst Personen ohne regelmäßiges Einkommen, Immobilienkredite zu erhalten. Die Banken betrachteten die von ihnen finanzierten Wohnimmobilien als alleinige Sicherheit für die Kredite, was die Nachfrage nach Immobilien stark ankurbelte und die Preise irrational in die Höhe trieb.

    Eine wirtschaftliche Abschwächung, begleitet von Zinserhöhungen seitens der US-Zentralbank, führte dazu, dass immer mehr Kreditnehmer ihre steigenden Raten für Immobilienkredite nicht mehr bedienen konnten. Dies zwang eine wachsende Anzahl von Menschen dazu, ihre Immobilien zu verkaufen, was wiederum zu einem Einbruch der Immobilienpreise führte. Da diese Immobilien jedoch als Sicherheiten für die vergebenen Kredite dienten, brach das Kartenhaus zusammen, und die Geschäftsbanken erlitten massive finanzielle Verluste.

    Das Vertrauen zwischen den Banken war erschüttert, wodurch sie aufhörten, sich gegenseitig Geld zu leihen. Dies führte dazu, dass die renommierte Investmentbank Lehman Brothers sich nicht refinanzieren konnte, illiquide wurde und bankrottging. Diese Kettenreaktion griff nicht nur auf das Bankensystem über, sondern wirkte sich auch auf die reale Wirtschaft aus. Unternehmen hatten plötzlich Schwierigkeiten, Kredite zu erhalten, und die Folgen waren unabwendbar.

    Durch die globale Vernetzung und Digitalisierung des Finanzsystems haben sich die Schockwellen dieser Krise schnell weltweit ausgebreitet. Die Krise in einem Bereich des Finanzsystems konnte sich rasch auf andere Bereiche ausweiten und damit die Gefahr von systemweiten Risiken erhöht.

    Fazit: Die Struktur des Fiatgeldsystems hat die weltweite Finanzkrise von 2007-2008 begünstigt, die zu einem Vertrauensverlust in das Finanzsystem und schwerwiegenden wirtschaftlichen Folgen weltweit führte.

    Um dieser schwerwiegenden Krise entgegenzuwirken, griffen sowohl die Europäische Zentralbank (EZB) als auch die amerikanische Zentralbank (FED) massiv ein und senkten über längere Zeiträume den Leitzins auf null Prozent. Ihr Ziel bestand darin, den Geschäftsbanken den Zugang zu Zentralbankgeld zu erleichtern, dieses in Form von Buchgeld in Umlauf zu bringen und durch die Vergabe neuer Kredite die Wirtschaft anzukurbeln.

    Als Ergebnis dieser Politik wuchs die Geldmenge M3 in der Eurozone in den letzten 20 Jahren permanent – von 4.67 Billionen EUR im Jahr 1999 auf über 16 Billionen EUR im Jahr 2023.

    Die Geldmenge M3 ist eine Messgröße für das gesamte Geld in einer Volkswirtschaft, das leicht verfügbar ist. Es umfasst nicht nur Bargeld und Münzen, sondern auch Geld auf Bankkonten, Spareinlagen, kurzfristige Anlagen wie Geldmarktfonds und ähnliche liquide Vermögenswerte. Diese breitere Definition ermöglicht es, die Gesamtliquidität einer Volkswirtschaft zu erfassen, also wie viel Geld insgesamt verfügbar ist, um Dinge zu kaufen oder zu investieren.

    Abb. 13: Entwicklung der Geldmenge M3 in der Eurozone von 1999 bis 2023 [statista]

    Die Geldumlaufgeschwindigkeit sank jedoch in der Eurozone in den letzten 20 Jahren, was auf verschiedene Faktoren zurückgeführt werden kann. Zu diesen Faktoren gehören unter anderem die Auswirkungen der Finanzkrise 2007-2008, die veränderten Kreditbedingungen, die geldpolitischen Maßnahmen der Europäischen Zentralbank (EZB) sowie strukturelle Veränderungen in der Wirtschaft.

    Abb. 14: Umlaufgeschwindigkeit des Geldes in der Eurozone von 1995 bis 2023 [TAGESGELDVERGLEICH.net]

    Makroökonomisch betrachtet, ist die Geldumlaufgeschwindigkeit ein wichtiger Indikator für die Aktivität und das Tempo der Wirtschaftstätigkeit in einem Land oder einer Wirtschaftsregion. Sie zeigt an, wie schnell das Geld durch das Wirtschaftssystem zirkuliert und wie effizient es für den Kauf von Gütern und Dienstleistungen genutzt wird.

    Eine hohe Geldumlaufgeschwindigkeit deutet oft auf eine lebendige Wirtschaft hin, in der viele Transaktionen stattfinden und das Geld schnell von einer Hand zur nächsten weitergegeben wird. Dies kann ein Zeichen für ein hohes Maß an wirtschaftlicher Aktivität und Wachstum sein. Eine schnellere Umlaufgeschwindigkeit bedeutet auch, dass das gleiche Geld öfter verwendet wird, was den Multiplikatoreffekt verstärkt und dazu beiträgt, das Bruttoinlandsprodukt (BIP) zu erhöhen.

    Auf der anderen Seite kann eine niedrige Geldumlaufgeschwindigkeit auf wirtschaftliche Probleme hinweisen. Wenn das Geld langsam zirkuliert und die Transaktionen abnehmen, kann dies ein Zeichen für eine wirtschaftliche Stagnation oder eine geringere Nachfrage nach Gütern und Dienstleistungen sein. Dies kann zu deflationären Tendenzen führen und die wirtschaftliche Aktivität beeinträchtigen.

    Eine abnehmende Geldumlaufgeschwindigkeit bei steigender Geldmenge kann eine Herausforderung für Zentralbanken darstellen, da dies darauf hindeuten könnte, dass geldpolitische Maßnahmen weniger effektiv sind. In einer solchen Situation könnten Zentralbanken zusätzliche Maßnahmen erwägen, um die Geldumlaufgeschwindigkeit zu erhöhen und die wirtschaftliche Aktivität anzukurbeln.

    Ein Rückgang der Geldumlaufgeschwindigkeit könnte auf einen Vertrauensverlust in das Finanzsystem oder in die allgemeine Wirtschaftslage hinweisen, was dazu führen kann, dass die Menschen ihr Geld horten oder weniger konsumieren.

    Fazit: Die Effektivität der geldpolitischen Maßnahmen der Zentralbanken stößt an Ihren Grenzen und weist auf strukturelle Probleme im vorhandenen Finanzsystem hin.

    2.5. Der Digitalisierungstrend

    Die Entwicklung des Geldes geht Hand in Hand mit dem Fortschritt der Technologie. Die rasante Entwicklung in Bereichen wie Computertechnologie, Internet, Smartphones, drahtloser Kommunikation und künstlicher Intelligenz hat diese Beziehung zunehmend komplexer gemacht. Diese technologischen Fortschritte haben dazu beigetragen, dass Geld in modernen Gesellschaften größtenteils in digitaler Form existiert und durch komplexe Finanzsysteme und digitale Transaktionen unterstützt wird. Physisches Bargeld wird zunehmend durch digitale Varianten wie Debit- und Kreditkarten, elektronische Geldbörsen oder Apps sowie digitale Einlagen bei Geschäftsbanken ersetzt.

    Seit 2020 wurde vielen von uns bewusst, dass wir in einer Zeit des Wandels leben, die umfassende Veränderungen mit sich bringt, die die gesamte Gesellschaft betreffen. Die fortschreitende Digitalisierung im industriellen, öffentlichen und privaten Sektor hat die Akzeptanz digitaler Währungen weiter erhöht. Die Digitalisierung verstärkt auch die Konzentration von Macht und Daten in den Händen weniger großer Finanzinstitute oder Technologieunternehmen. Dies erhöht die Risiken im Zusammenhang mit Monopolstellung und Datenschutz.

    Parallel dazu könnte der Einsatz von algorithmischen Handelsstrategien und hochfrequentem Handel an den Finanzmärkten zu unvorhersehbaren Preisschwankungen und volatileren Märkten führen, was das Risiko von Finanzkrisen erhöht. Die Digitalisierung hat die Komplexität und Undurchsichtigkeit des Finanzsystems verstärkt, insbesondere im Bereich der Derivate und strukturierten Finanzprodukte. Diese Komplexität könnte es schwieriger machen, Finanzkrisen zu erkennen und zu managen.

    Derivate sind Verträge, die ihren Wert aus dem Preis anderer Dinge ableiten. Es gibt verschiedene Arten von Derivaten, aber zwei der häufigsten sind Optionen und Futures. Stellen Sie sich vor, Sie gehen auf den Markt und kaufen einen Apfel. Sie wissen, dass der Preis für einen Apfel 1 Euro beträgt. Jetzt stellen Sie sich vor, Sie könnten einen Vertrag abschließen, der Ihnen das Recht gibt, diesen Apfel in einer Woche für denselben Preis zu kaufen, unabhängig davon, wie sich der Preis in der Zwischenzeit ändert. Das ist eine Option. Ein Future wäre eine Bestellung eines Apfels zu einem festen Preis, der aber erst in einer Woche geliefert wird. In beiden Fällen versuchen die Leute, sich gegen Preisänderungen abzusichern oder von ihnen zu profitieren, ohne den Apfel sofort zu kaufen.

    Nun stellen Sie sich vor, Sie sind in einem Süßwaren-Laden und möchten eine Vielzahl von Süßigkeiten kaufen, aber Sie möchten nicht nur eine Sorte. Also bitten Sie den Ladenbesitzer, Ihnen eine Tüte zusammenzustellen, in der verschiedene Süßigkeiten gemischt sind. Strukturierte Finanzprodukte sind ähnlich. Banken und Finanzinstitute packen verschiedene Arten von Geldanlagen wie Kredite, Hypotheken oder Schulden zusammen und verkaufen sie dann als ein Paket an Investoren. Diese Pakete haben verschiedene Teile, die unterschiedliche Risiken und Renditen haben. Manche Teile sind sicherer, andere riskanter. Die Idee ist, dass Investoren auswählen können, in welche Teile sie investieren möchten, je nachdem, wie viel Risiko sie eingehen möchten. Diese Pakete können sehr kompliziert sein, und manchmal verstehen selbst Experten nicht genau, was drin ist. Das kann zu Problemen führen, wenn die Dinge nicht so laufen, wie sie sollten.

    Fazit: Der Trend zur Digitalisierung verschärft die strukturellen Schwachstellen des Fiat-Finanzsystems und stellt Regulierungsbehörden vor neue komplexe Herausforderungen, um die langfristige Stabilität des Finanzsystems unter diesen Bedingungen sicherzustellen. Damit stellt sich die Frage, wie das bestehende Fiat-Finanzsystem weiter reformiert werden soll.

    Die technologische Entwicklung hat parallel dazu geführt, dass eine neue Art von Währung, die Kryptowährung, entstanden ist. Kryptowährungen sind digitale oder virtuelle Währungen, die auf kryptographischen Techniken basieren und als Mittel zum Austausch von Werten dienen. Anders als traditionelle Währungen werden Kryptowährungen nicht von Regierungen oder Zentralbanken kontrolliert. Stattdessen werden sie über ein dezentrales Computernetzwerk verwaltet. Sie nutzen starke Verschlüsselungstechniken und komplexe, algorithmusbasierte Prozesse, um Transaktionen zu sichern, die Unabhängigkeit von zentralen Behörden zu gewährleisten und die Erzeugung neuer Einheiten zu regulieren. Bekannte Beispiele für Kryptowährungen sind Bitcoin, Ether und Tether.

    Befürworter von Kryptowährungen sehen Bitcoin als Wegbereiter für die Trennung von Staat und Geldsystem und betrachten diesen Schritt als eine der bedeutendsten Revolutionen aller Zeiten. Tatsächlich hat Bitcoin seit seiner Einführung im Jahr 2009 den Weg für die Entwicklung zahlreicher weiterer Kryptowährungen und Blockchain-Projekte geebnet.

    Fazit: Diese neuartigen Strukturen, auf denen Kryptowährungen basieren, stellen eine weitere ernsthafte Herausforderung für das traditionelle Fiatgeldsystem dar.

    Angesichts dieser Herausforderungen erscheinen die Aussagen von Christine Lagarde, der Präsidentin der EZB (Europäische Zentralbank), und Fabio Panetta, Mitglied des EZB-Direktoriums und Vorsitzender der hochrangigen Task Force für einen digitalen Euro, eher „harmlos“.

    Wir müssen unsere Währung fit für die Zukunft machen. Wir stellen uns einen digitalen Euro als eine digitale Form von Bargeld vor, die für alle digitalen Zahlungen kostenlos verwendet werden kann und die höchsten Datenschutzstandards erfüllt. Er würde neben dem physischen Bargeld existieren, das immer verfügbar sein wird und niemanden zurücklässt.“ [Christine Lagarde]

    Da die Menschen zunehmend digital bezahlen, sollten wir bereit sein, neben dem Bargeld auch einen digitalen Euro auszugeben. Ein digitaler Euro würde die Effizienz des europäischen Zahlungsverkehrs erhöhen und zur strategischen Autonomie Europas beitragen.“ [Fabio Panetta]

    Derzeit ist es so, dass Nichtbanken wie Privatpersonen und Unternehmen nur über Bargeld Zugang zu Zentralbankgeld haben. Alle bargeldlosen Transaktionen werden ausschließlich über das Buchgeld der Geschäftsbanken abgewickelt. Mit der Einführung des digitalen Euros werden jedoch auch bargeldlose Transaktionen für die breite Öffentlichkeit direkt mit Zentralbankgeld möglich sein. Dadurch wird Zentralbankgeld zusätzlich zum Buchgeld der Geschäftsbanken in den gesamten Wirtschaftskreislauf integriert. Dies legt nahe, dass die Einführung des digitalen Euros als Zahlungsmittel für Nichtbanken mit einer tiefgreifenden strukturellen Veränderung des aktuellen Fiat-Geldsystems einhergeht.

    Von dieser Perspektive aus betrachtet, sind die kontroversen Diskussionen über die Einführung und Ausgestaltung des digitalen Euros als CBDC (Central Bank Digital Currency – Zentralbank-Digitalwährung) angesichts ihrer gesellschaftlichen Relevanz ebenfalls verständlich.

    Aus der Sicht des Durchschnittsbürgers drängt sich die Frage auf: Werden die digitalen Währungen der Zentralbanken unser Leben erleichtern und sicherer machen, oder handelt es sich um ein riskantes Experiment?

    Bevor wir uns tiefer in die Diskussion begeben, ist es wichtig zu beachten, dass sowohl CBDC als auch Kryptowährungen Teil der digitalen Währungsrevolution sind. Einige wichtige technologische Elemente, die bei Kryptowährungen verwendet werden, können auch bei CBDC eingesetzt werden. Diese grundlegenden Elemente beeinflussen direkt die Eigenschaften und die praktische Anwendung von CBDC.

    Um ein besseres Verständnis für CBDC zu erhalten, werden wir im nächsten Kapitel einige Schlüsselelemente der bekanntesten Kryptowährungen genauer betrachten.

    3. Kryptowährungen Alle Wege führen nach Rom

    Banken müssen vertrauenswürdig sein, um unser Geld zu halten und es elektronisch zu übertragen, aber sie verleihen es in Wellen von Kreditblasen mit kaum einem Bruchteil in Reserve. Wir müssen ihnen in Bezug auf unsere Privatsphäre vertrauen, darauf vertrauen, dass sie Identitätsdieben nicht erlauben, unsere Konten zu leeren. Ihre massiven Betriebskosten machen Mikrozahlungen unmöglich.
    Satoshi Nakamoto, Post im P2P-Foundation-Forum

    Die Finanzkrise von 2007-2008 spielte eine entscheidende Rolle bei der Entstehung von Kryptowährungen wie Bitcoin. Sie führte zu einem Vertrauensverlust in traditionelle Finanzinstitutionen und das bestehende Fiat-Geldsystem. Viele Menschen waren enttäuscht von der Reaktion der Banken und Regierungen auf die Krise und suchten nach alternativen Möglichkeiten, ihr Geld zu verwahren und Transaktionen durchzuführen, die frei von staatlicher Kontrolle und Einmischung sind.

    Bitcoin wurde kurz nach Ausbruch der Finanzkrise im Jahr 2008 von einer anonymen Person oder Gruppe mit dem Pseudonym Satoshi Nakamoto ins Leben gerufen. Das Whitepaper von Bitcoin, das im selben Jahr veröffentlicht wurde, präsentierte eine Idee für eine dezentrale digitale Währung, die ohne eine zentrale Behörde oder Intermediäre funktioniert. Dieses Konzept kam genau zur richtigen Zeit, als das Vertrauen in das traditionelle Finanzsystem erschüttert war. Die Finanzkrise von 2007-2008 diente daher als Katalysator für das Aufkommen von Kryptowährungen, da sie das Bewusstsein für die Schwächen des bestehenden Finanzsystems schärfte und den Bedarf an alternativen Wegen zur Wertaufbewahrung und Transaktion aufzeigte.

    Kryptowährungen haben das Potenzial, das traditionelle Geldsystem zu beeinflussen und zu transformieren. Um zu verstehen, warum dies der Fall ist, werden zunächst einige grundlegende Begriffe in diesem Kontext erklärt, ohne dabei in technische Details abzuschweifen.

    3.1. Distributed Ledger Technologie (DLT)

    Ein Ledger ist ein Begriff aus der Buchhaltung und Finanzwelt, der im Allgemeinen eine Aufzeichnung von finanziellen Transaktionen in Form eines Buches oder einer Datenbank bezeichnet. Er dient dazu, den aktuellen Stand von Vermögenswerten, Verbindlichkeiten und Kapital eines Unternehmens oder einer Organisation festzuhalten. Ein Ledger kann entweder manuell oder elektronisch geführt werden und beinhaltet typischerweise Einträge zu Einnahmen, Ausgaben, Überweisungen und anderen finanziellen Transaktionen.

    Abb. 15: Ledger – früher und heute

    Ein traditioneller Ledger ist üblicherweise zentralisiert, wodurch eine zentrale Autorität die Kontrolle über die Daten innehat und auch den Zugriff darauf zentral steuert. Diese Zentralisierung macht traditionelle Ledger anfälliger für Betrug oder Datenmanipulation, da sie von einer einzigen Stelle kontrolliert werden.

    Abb. 16: Zentralisierter Ledger

    Ein Distributed Ledger ist eine dezentrale Datenbank, die Transaktionsdaten über mehrere Standorte hinweg speichert und synchronisiert. Im Gegensatz zum zentralisierten Ledger, der von einer einzigen zentralen Stelle verwaltet wird, befinden sich die Daten in einem Distributed Ledger auf vielen verteilten Knoten oder Computern, die über ein Netzwerk miteinander verbunden sind. Diese dezentrale Natur gewährleistet eine höhere Sicherheit, da die Daten auf mehreren Knoten gespeichert sind und Änderungen kryptografisch gesichert werden.

    Abb. 17: Verteilter Ledger

    Zusammenfassend lässt sich sagen, dass der Hauptunterschied zwischen einem traditionellen Ledger und einem Distributed Ledger in ihrer zentralen oder dezentralen Struktur liegt, was Auswirkungen auf die Kontrolle, Sicherheit und Effizienz der Datenverfolgung hat.

    Ein zentrales Ledger benötigt eine Autorität (Bank, Cloud usw.), während die verteilte Ledger Technologie einen P2P-Austausch über Computer ermöglicht. (Peer-to-Peer (P2P) ist ein Konzept, das eine direkte Interaktion oder Kommunikation zwischen den Teilnehmern eines Netzwerks ohne die Notwendigkeit einer zentralen Vermittlungsstelle beschreibt.) [iMi Blockchain]

    3.2. Blockchain-Technologie

    Die Distributed Ledger Technologie (DLT) und die Blockchain-Technologie sind eng miteinander verbunden, da die Blockchain eine spezifische Implementierung von DLT darstellt. DLT kann in der Praxis auf verschiedene Arten umgesetzt werden, wobei die Blockchain-Technologie die bekannteste und weit verbreitetste Form ist. Oft werden DLT und Blockchain-Technologie gleichgesetzt, aber die Blockchain ist lediglich eine spezifische Variante von DLT.

    Die Blockchain kann man sich wie ein langes, öffentliches Notizbuch (Ledger) vorstellen. Jede Seite dieses Notizbuchs repräsentiert einen Block. In diesem Notizbuch werden alle Transaktionen aufgeschrieben, die jemals getätigt wurden.

    Jeder Block enthält eine Liste von Transaktionen, wie zum Beispiel, dass jemand Geld an jemand anderen sendet. Sobald eine Seite des Notizbuchs voll ist, wird eine neue Seite hinzugefügt, und diese ist mit der vorherigen Seite verknüpft. Diese Verknüpfung ist wie eine Kette, die alle Seiten zusammenhält – daher der Name „Blockchain“.

    Abb. 18: Schematische Darstellung einer Blockchain

    Um das grundlegende Funktionsprinzip der Blockchain-Technologie zu verstehen, ist es wichtig zu erfassen, wie ein System aufgebaut wird, das allen Teilnehmern die Erstellung, Überprüfung und Aktualisierung von Daten ermöglicht.

    Peer-to-Peer (P2P) Netzwerk

    Für den Betrieb einer Blockchain wird ein Peer-to-Peer (P2P) Netzwerk benötigt. Dabei handelt es sich um ein Netzwerk von Computern, die als Knoten bezeichnet werden und die alle gleichberechtigt sind. Jeder kann diesem Netzwerk beitreten (siehe Abb. 17). Das P2P-Netzwerk ermöglicht den Knoten, miteinander zu kommunizieren, Informationen auszutauschen und Aufgaben zu erfüllen, ohne dass ein zentraler Server erforderlich ist. Diese P2P-Netzwerke können über die weltweite Internetinfrastruktur aufgebaut werden, bei der Computer direkt miteinander verbunden sind.

    Kryptographie

    Da jeder dem Netzwerk beitreten kann, einschließlich potenziell schädlicher Akteure, ist es entscheidend, dass die Kommunikation zwischen den Knoten sicher und unverändert erfolgt. Hierbei spielt Kryptographie eine zentrale Rolle. Sie ermöglicht die sichere Kommunikation in einer Umgebung, in der potenzielle Gefahren lauern. Durch Verschlüsselung werden Informationen so umgewandelt, dass sie nur von Teilnehmern gelesen werden können, die über die entsprechenden „Schlüssel“ zur Entschlüsselung verfügen. Auf diese Weise können Nachrichten sicher übertragen werden, ohne dass Unbefugte sie abfangen oder verändern können. Dies ermöglicht es weiterhin, die Authentizität der eigenen Nachrichten nachzuweisen, selbst wenn sich potenziell bösartige Akteure im Netzwerk befinden.

    In der Abbildung 18 repräsentiert der Eintrag im Feld „Hash“ eine kryptografische Prüfsumme oder ein Fingerabdruck der Daten im Block, der Eintrag im Feld „Prev“ (previous Hash) ist der Hash-Wert des vorherigen Blocks in der Blockchain. Durch die Verwendung von kryptografischen Hash-Funktionen wird sichergestellt, dass die Integrität der Blockchain gewahrt bleibt und dass Änderungen an vergangenen Blöcken leicht erkannt werden können.

    Konsensalgorithmus

    Das dritte Element ist der Konsensalgorithmus. Dieser ist wie eine Regel oder ein Verfahren, das sicherstellt, dass alle Teilnehmer in einem System sich darüber einig sind, welche Daten gültig sind und wie sie geändert werden können. In einem dezentralen Netzwerk wie der Blockchain kommunizieren viele verschiedene Knoten oder Computer miteinander. Der Konsensalgorithmus hilft diesen Computern, sich auf eine gemeinsame Sichtweise zu einigen, auch wenn sie unterschiedliche Informationen haben könnten. Dadurch können sie sicherstellen, dass die empfangenen Daten korrekt sind und alle im Netzwerk sich darüber einig sind, was mit diesen Daten geschehen soll.

    Es gibt verschiedene Konsensalgorithmen, die in Blockchain-Netzwerken verwendet werden, damit sich alle Teilnehmer darüber einig sind, welche Transaktionen gültig sind und welche nicht. Jeder dieser Konsensalgorithmen hat seine eigenen Vor- und Nachteile und wird je nach den Anforderungen und Zielen des Blockchain-Netzwerks ausgewählt. Der Proof-of-Work (POW) Algorithmus erlangte besondere Berühmtheit durch die erste Kryptowährung Bitcoin.

    Proof-of-Work (PoW) Algorithmus

    Was passiert bei dem PoW-Algorithmus? Neu hinzukommende Transaktionen werden in einem neuen Block erfasst. Bevor dieser Block der Blockchain hinzugefügt werden kann, muss sein Inhalt validiert und bestätigt werden. Sobald der Block voll ist, wird der PoW-Algorithmus aktiv.

    Bei diesem Algorithmus muss ein Computer im Netzwerk ein Rätsel (komplexe mathematische Aufgabe) erfolgreich lösen, um den Inhalt des neuen Blockes zu validieren. Die Lösung dieser Aufgabe nennt man Proof-of-Work. Sobald ein Computer im Netzwerk das Rätsel erfolgreich gelöst und einen neuen Block für den Anschluss an die Blockchain vorgeschlagen hat, wird dieser Block von den anderen Computern im Netzwerk überprüft und validiert. Jeder Computer im Netzwerk wendet die Regeln des Bitcoin-Protokolls an, um sicherzustellen, dass die Transaktionen gültig sind und der neue Block den Konsensregeln entspricht. Zu diesen Regeln gehört die Überprüfung von Faktoren wie der Gültigkeit von Signaturen, der Korrektheit der Transaktionsdaten und der Richtigkeit des Proof-of-Work.

    Wenn die anderen Computer im Netzwerk feststellen, dass der neue Block gültig ist, wird er zur Blockchain hinzugefügt, und die Transaktionen darin werden bestätigt. Wenn der Block nicht den Konsensregeln entspricht oder die Transaktionen ungültig sind, wird der Block von den anderen Computern im Netzwerk abgelehnt, und der Vorgang beginnt von neuem, um einen anderen gültigen Block zu finden.

    Im Proof-of-Work (PoW) Algorithmus, wie er bei Bitcoin verwendet wird, konkurrieren mehrere Computer im Netzwerk miteinander, um diese komplexe mathematische Aufgabe zu lösen. Die Lösung der Aufgabe erfordert viel Rechenleistung und Energie.

    In der Abbildung 18 repräsentiert der Eintrag im Feld „Nonce“ (eine Abkürzung für „Number used once“) eine zufällige Zahl, die zusammen mit anderen Daten in einem Block verarbeitet wird, um einen Hash zu erzeugen, der bestimmte Kriterien erfüllen muss, um als gültiger Block akzeptiert zu werden. Dieser Wert ist direkt mit dem PoW-Algorithmus verbunden.

    Belohnung und Bestrafung

    Für den ordnungsgemäßen Betrieb einer dezentralisierten Blockchain tritt ein weiteres Konzept aus der Spieltheorie in den Vordergrund: „Belohnung und Bestrafung“. In der Spieltheorie bezieht sich der Begriff „Belohnung und Bestrafung“ auf die Anreize, die den Spielern gegeben werden, um bestimmte Verhaltensweisen zu fördern oder zu unterdrücken. Belohnungen können positive Anreize sein, die Spieler erhalten, wenn sie bestimmte Aktionen ausführen oder bestimmte Ziele erreichen. Bestrafungen sind negative Anreize, die Spieler erleiden, wenn sie unerwünschte Handlungen ausführen oder bestimmte Regeln verletzen. Diese Belohnungen und Bestrafungen werden verwendet, um das Verhalten der Spieler zu beeinflussen und das Erreichen von Zielen im Spiel zu fördern.

    Dadurch werden Teilnehmer belohnt, die dabei helfen, die Aufzeichnungen in der Blockchain pflegen und neue Blöcke zur Blockchain hinzufügen. Im Fall von Bitcoin bedeutet diese Belohnung, dass ein Token beziehungsweise eine virtuelle Münze vergeben wird, jedes Mal, wenn ein Konsens erreicht wird und ein neuer Block zur Kette hinzugefügt wird. Auf der anderen Seite verlieren böswillige Akteure, die versuchen, das System zu umgehen oder zu manipulieren, die Ausgaben für Rechenleistung während des Proof-of-Work-Prozesses, oder sie riskieren, ihre Münzen zu verlieren.

    Abschließend ist es wichtig zu erkennen, dass das Bestrafungs- und Belohnungssystem einen Einfluss auf das psychologische Verhalten hat. Es wandelt die Regeln des Systems von etwas, das man befolgen muss, in etwas, dem man folgen möchte, weil es im eigenen Interesse liegt, dies zu tun.

    Kritische P2P-Netzwerk-Größe

    In der Realität gilt eine Blockchain als dezentralisiert, wenn sie genug unabhängige Validatoren oder Knoten hat, die die Transaktionen validieren. Diese Knoten sind über verschiedene geografische Standorte verteilt, und keine einzelne Partei hat die Kontrolle über das Netzwerk.

    Eine Zusammenfassung der wesentlichen Merkmale der Blockchain-Technologie findet man in diesem Video.

    Eine ausführlichere visuelle Demonstration der Funktionalität einer Blockchain am Beispiel von Finanztransaktionen findet man in hier und hier

    Der entscheidende strategische Nutzen beim Einsatz der Blockchain-Technologie zur Problemlösung liegt in ihrer Dezentralisierung. Die Auswahl der Blockchain-Technologie als Lösungsmethode ist nur dann gerechtfertigt, wenn das zugrunde liegende Problem tatsächlich auf Zentralisierung zurückzuführen ist. Wenn eine Dezentralisierung nicht erforderlich oder erwünscht ist, ist es wahrscheinlich, dass eine zentralisierte Lösung besser geeignet ist und die Blockchain-Technologie nicht notwendig ist.

    Die zentrale Frage lautet: Ist unsere Welt derzeit bereit für die umfassende Implementierung einer komplexen Blockchain-Technologie, die eine Dezentralisierung mit sich bringt?

    3.3. Das Token – The Swiss Army Knife

    Beim Erklären des Belohnungsmechanismus als wesentlichen Bestandteil einer Blockchain im vorigen Kapitel wurde der Begriff „Token“ verwendet. Hier ist es sinnvoll, diesen Begriff in einfacher Sprache zu erklären.

    Ein Token kann in verschiedenen Formen auftreten.

    Ganz allgemein im IT-Bereich stellt ein Token eine Art digitaler Schlüssel oder eine Kennung dar. Es wird verwendet, um die Identität eines Benutzers oder einer Entität zu bestätigen und Zugriff auf ein System oder eine Ressource zu erhalten. Stellen Sie ihn sich wie einen Ausweis vor, den Sie vorzeigen, um in ein Gebäude zu gelangen. Ein Token kann zum Beispiel ein Passwort, ein biometrisches Merkmal (wie ein Fingerabdruck) oder ein spezieller Code sein, den Sie eingeben oder vorzeigen, um sich zu authentifizieren. Es wird verwendet, um Sicherheit und Zugriffssteuerung in IT-Systemen zu gewährleisten.

    In der Blockchain-Welt ist ein Token eine digitale Einheit mit vielfältigen Funktionen. Es kann als Kryptowährung dienen, digitale Darstellungen von Fiat-Währungen auf Blockchain-Plattformen sein und für Transaktionen verwendet werden. Zudem können Tokens digitale Repräsentationen von realen Objekten wie Immobilien oder Kunstwerken sein.

    Ein Token kann nicht nur ein digitales Objekt repräsentieren, sondern auch seine Eigenschaften. Dies hängt von der Art des Tokens und seiner Implementierung auf der Blockchain ab. Betrachten wir zum Beispiel ein tokenisiertes Kunstwerk. Ein solcher Token könnte nicht nur das Kunstwerk selbst darstellen, sondern auch Informationen über den Künstler, das Erscheinungsjahr, die Größe, die Besitzerhistorie und sogar Lizenzrechte enthalten.

    Zusätzlich kann ein Token bestimmte Funktionen innerhalb eines Blockchain-Netzwerks repräsentieren, wie Nutzungsrechte, Zugriffsrechte, Stimmrechte, Anspruchsrechte usw. Je nach Typ und Verwendungszweck können Tokens unterschiedliche Merkmale und Funktionalitäten aufweisen.

    Abb. 19: Bei der Tokenisierung wird die reale Welt oder reale Vermögenswerte in die digitale Welt übertragen, indem sie in digitale Tokens umgewandelt werden, die auf einer Blockchain oder einem anderen digitalen Ledger gespeichert werden können. Diese Tokens fungieren dann als digitale Repräsentationen der realen Vermögenswerte und können online gehandelt, übertragen und verwaltet werden.

    Tokens können als eine Art Baukasten betrachtet werden, mit dem digitale Objekte, ihre Eigenschaften und verschiedene Funktionen kombiniert werden können. Diese werden dann als ein Element in einem vordefinierten Algorithmus auf einer digitalen Plattform wie einer Blockchain verwendet. Dieser Algorithmus bestimmt, wie die Tokens erstellt, übertragen, gehandelt und verwendet werden können. Diese Logik legt fest, wie die Tokens funktionieren und welche Regeln sie einhalten müssen.

    Ein Token könnte metaphorisch als ein universelles Werkzeug betrachtet werden, das in einer Vielzahl von Situationen verwendet werden kann. Ähnlich wie ein Schweizer Taschenmesser vielseitig einsetzbar ist und verschiedene Funktionen bietet, kann ein Token in einem Blockchain-Netzwerk für verschiedene Zwecke verwendet werden, von der Werthaltung bis zur Ausführung vorprogrammierter Abläufe.

    Weitere Informationen zum Thema Token und seiner Rolle im zukünftigen Finanzsystem werden in den folgenden Kapiteln bereitgestellt.

    3.4. Zentralisiertes vs. Dezentralisiertes Ledger-System
    Abb. 20: Zentralisiertes vs. Dezentralisiertes Ledger-System

    Zentralisiertes Ledger-System

    Das bestehende Finanzsystem beruht auf zentralisierten Ledger-Systemen, bei denen Transaktionen und Kontostände von einer zentralen Behörde oder Institution verwaltet und überwacht werden. Banken, Zentralbanken und andere Finanzinstitute führen diese zentralisierten Ledger, in denen alle Transaktionen und Kontobewegungen festgehalten werden.

    In kritischen Situationen, in denen das Vertrauen in eine zentrale Behörde oder Institution in Frage gestellt wird, rücken die folgenden Aspekte eines zentralisierten Ledger-Systems besonders stark ins Blickfeld:

    Single Point of Failure: Da ein zentralisiertes Finanzsystem von einer einzigen Autorität oder Institution kontrolliert wird, birgt es das Risiko eines „Single Point of Failure“. Wenn diese Autorität versagt oder kompromittiert wird, kann dies zu erheblichen Störungen oder Ausfällen im gesamten System führen.

    Mangel an Transparenz: Da zentralisierte Hauptbücher von einer einzigen Institution geführt werden, gestaltet sich die Überprüfung der Richtigkeit und Vollständigkeit der Daten für Außenstehende oft schwierig. Insbesondere in Branchen, die Wert auf Transparenz und Rechenschaftspflicht legen, kann dies ein Problem darstellen.

    Politische oder wirtschaftliche Zwänge: Politische und wirtschaftliche Einflüsse können die Vertrauenswürdigkeit und Genauigkeit zentralisierter Hauptbücher beeinträchtigen. Zum Beispiel könnte eine Regierungsbehörde Daten in einem zentralisierten Hauptbuch manipulieren, um ihre eigenen Ziele zu erreichen.

    Begrenzte Zugänglichkeit: Da zentralisierte Hauptbücher oft von einer einzigen Partei verwaltet werden, können der Zugriff auf Daten sowie deren Nutzung für externe Parteien eingeschränkt oder verweigert werden.

    Verteiltes Ledger-System

    Kryptowährungen basieren auf einem verteilten Ledger-System, was im Vergleich zu zentralisierten Ledger-Systemen mehrere Vorteile bietet:

    Dezentralisierung: Ein dezentrales System funktioniert ohne zentrale Autorität. Slogans wie „Bitcoin ist das Geld des Volkes“ und „Sei deine eigene Bank“ vermitteln die Idee der finanziellen Unabhängigkeit, Autonomie, Selbstbestimmung und Eigenverantwortung in finanziellen Angelegenheiten.

    Sicherheit und Vertrauen: Kryptowährungen wie Bitcoin verwenden Blockchain-Technologie, die Transaktionen transparent und fälschungssicher macht. Dies trägt dazu bei, das Vertrauen der Nutzer in das System zu stärken, insbesondere nach Finanzkrisen und Betrugsskandalen.

    Anonymität und Datenschutz: Ein weiterer Grund für das Entstehen von Kryptowährungen ist der Wunsch nach Anonymität und Datenschutz bei Finanztransaktionen. Kryptowährungen bieten in der Regel ein gewisses Maß an Anonymität, da Transaktionen pseudonym sind und nicht mit persönlichen Daten verbunden werden müssen.

    Zugänglichkeit und Inklusion: Kryptowährungen sind weltweit nutzbar und ermöglichen den Zugang zu Finanzdienstleistungen für Menschen, die möglicherweise keinen Zugang zum traditionellen Bankensystem haben, wie beispielsweise Menschen in Entwicklungsländern oder Menschen ohne Bankkonto.

    Die Welt der Kryptowährungen ist mittlerweile umfangreich und vielfältig geworden, mit fast 20.000 verschiedenen Arten von Krypto-Werten im Umlauf. Der Beitrag „Top 10 Kryptowährungen nach Marktkapitalisierung“ bietet eine Einteilung der Kryptowährungen basierend auf ihrer Marktkapitalisierung. In Börsenterminologie bezeichnet die Marktkapitalisierung den aktuellen Börsenwert einer Währung oder eines Unternehmens und wird durch die Multiplikation der Anzahl der Einheiten mit dem Kurs berechnet.

    Eine nähere Untersuchung der führenden drei Kryptowährungen in dieser Rangliste liefert aufschlussreiche Einblicke in wichtige Zusammenhänge, Merkmale und Funktionsweisen, die auch bei der Gestaltung und Funktionsweise digitaler Zentralbankwährungen eine Rolle spielen.

    3.5. Bitcoin (BTC) – Get Rich or Die Tryin’

    Bitcoin wurde konzipiert, um als digitales Zahlungs- und Wertaufbewahrungsmittel zu dienen. Es basiert auf einem transparenten Hauptbuch (Ledger) ohne zentrale Autorität und stellt somit einen typischen Anwendungsfall eines dezentralisierten Ledger-Systems auf Basis der Blockchain-Technologie dar (siehe Kapitel 3.1. und 3.2.). Die daraus resultierenden systemischen Vorteile wurden im Kapitel 3.4. erörtert.

    Aufgrund seiner dezentralen Architektur gibt es keinen einzelnen Computer, der für die Verwaltung des Ledgers verantwortlich ist (siehe Abb. 21). Stattdessen besitzt jeder Computer, der Bestandteil des Blockchain-Systems ist, eine Kopie des Ledgers. Bitcoin verwendet ein transparentes Hauptbuch, das es jedem Nutzer (User) ermöglicht, zu jedem Zeitpunkt Einblick in alle Transaktionen und Salden zu erhalten. Allerdings sind die Besitzer der Salden und die Absender und Empfänger von Transaktionen nicht direkt erkennbar. Dadurch ist Bitcoin pseudonym, da zwar alle Informationen offen, transparent und nachverfolgbar sind, aber die Identitäten der beteiligten Parteien nicht vollständig offenbart werden.

    Bitcoin ist rein digital und existiert nicht in physischer Form wie traditionelle Münzen oder Banknoten. Stattdessen repräsentiert der Besitz von Bitcoin das Recht, auf bestimmte Datensätze im Hauptbuch, der sogenannten Blockchain, zuzugreifen und Bitcoin zwischen verschiedenen Adressen zu senden. Da Bitcoin nicht von einer Regierung, Behörde oder Bank kontrolliert wird, behält der Besitzer die volle Kontrolle über sein Bitcoin-Geld. Nur der rechtmäßige Eigentümer hat Zugriff auf sein Bitcoin-Guthaben in seinem Digital-Wallet und kann darüber verfügen.

    Digital Wallets sind elektronische Geldbörsen, die es Nutzern ermöglichen, digitale Währungen wie Kryptowährungen sicher zu speichern, zu verwalten und Transaktionen damit durchzuführen. Sie funktionieren ähnlich wie traditionelle Geldbörsen, jedoch für digitale Währungen, und bieten Funktionen wie das Senden und Empfangen von Coins, das Anzeigen des Kontostands und die Verwaltung von Transaktionshistorien.

    Durch die direkten Zahlungen zwischen den Nutzern ohne Zwischenhändler wie Banken macht Bitcoin insbesondere internationale Transaktionen wesentlich einfacher. Dadurch entfallen Bankengebühren und der Aufwand für den Umgang mit Wechselkursen.

    Abb. 21: Schematische Darstellung einer Bitcoin-Blockchain

    Bitcoin ist ähnlich wie Gold darauf ausgelegt, knapp zu sein, da es eine maximale Obergrenze von 21 Millionen Bitcoins gibt, die jemals erstellt werden können. Aus diesem Grund betrachten einige Anleger Bitcoin als langfristige Investition und als Absicherung gegen Inflation.

    Eine knappe und dennoch gründliche Erklärung dessen, was Bitcoin ist und wie man ihn handhaben kann, findet sich im Video „Bitcoins Erklärung: In nur 12 Min. Bitcoin verstehen!“ von Finanzfluss.

    Halten wir noch einmal die wesentlichen Vor- und Nachteile von Bitcoin fest:

    Abb. 22: Wesentliche Vor- und Nachteile von Bitcoin [Finanzfluss]

    In den meisten Ländern wird Bitcoin, wie auch andere Kryptowährungen, nicht als gesetzliches Zahlungsmittel betrachtet. Stattdessen wird Bitcoin oft als digitaler Vermögenswert oder alternative Zahlungsmethode angesehen. Dies bedeutet, dass die Verwendung von Bitcoin für Transaktionen freiwillig erfolgt und nicht gesetzlich vorgeschrieben ist. Einige Länder haben Kryptowährungen jedoch als legalen Zahlungsdienst oder Finanzinstrument anerkannt, jedoch nicht als gesetzliches Zahlungsmittel im herkömmlichen Sinne. (El Salvador ist bislang der einzige Staat, in dem Bitcoin als Landeswährung gilt, mit überschaubarem Erfolg. Die Einführung des Bitcoins als gesetzliches Zahlungsmittel hat jedoch die Situation für die Finanzierung und Stabilisierung der öffentlichen Finanzen in diesem Land, in dem große Teile der Bevölkerung unter der Armutsgrenze leben, nicht verbessert.)

    Deshalb ist die Verwendung von Kryptowährungen als Tauschmittel, eine der drei Hauptfunktionen des Geldes, häufig stark eingeschränkt. Dies führt oft dazu, dass Kryptowährungen in eine gesetzlich anerkannte Fiatwährung umgetauscht werden müssen. Dies geschieht normalerweise über eine Kryptowährungsbörse oder eine Online-Handelsplattform. Letztere erfordern oft eine Benutzerverifizierung während des Registrierungsvorgangs, was zumindest teilweise die beworbene Privatsphäre bei der Nutzung von Kryptowährungen beeinträchtigt.

    Als virtuelle Währung repräsentiert Bitcoin keine realen Gegenwerte wie Cashflow, Aktien, Unternehmensanteile oder Goldreserven. Der Wert einer Einheit wird ausschließlich durch Angebot und Nachfrage bestimmt, was zu starken Kursschwankungen führen kann.

    Im Januar 2024 wurden in den USA die ersten sogenannten Bitcoin-Spot-ETFs eingeführt. Diese ETFs (Exchange-Traded Funds) sind Investmentfonds, die an einer Börse gehandelt werden und Bitcoin als zugrunde liegenden Vermögenswert verwenden. Sie schaffen eine Verbindung zwischen Kryptowährungen und der traditionellen Finanzwelt. Bitcoin ETFs bieten institutionellen Anlegern eine legale und regulierte Möglichkeit, an der Kryptowährung teilzunehmen, selbst wenn sie möglicherweise nicht direkt in Bitcoin investieren können. Durch den Kauf eines Bitcoin-Spot-ETFs erwirbt man im Wesentlichen einen Anteil an der Kryptowährung selbst.

    Die Entscheidung von BlackRock, dem weltgrößten Vermögensverwalter, in das Bitcoin-Spot-ETF-Geschäft einzusteigen, hat bereits für Aufsehen gesorgt. BlackRock verwaltet insgesamt ein Vermögen von 9 Billionen US-Dollar. Selbst wenn das Unternehmen nur ein Prozent seiner Vermögenswerte in Bitcoin investieren würde, könnte dies erhebliche Auswirkungen auf den Bitcoin-Kurs haben (Abb. 23).

    Abb. 23: Bitcoin-Euro Wechselkurs (Stand 28.04.2024)

    Die hohe Volatilität, die begrenzte Akzeptanz und einige technische Hürden bei der Handhabung disqualifizieren Bitcoin für weite Teile der Bevölkerung als zuverlässiges Tauschmittel oder Wertaufbewahrungsmittel.

    Das, was 2009 der Öffentlichkeit als „basisdemokratische“ Alternative zum „elitären“ traditionellen Bank- und Finanzsystem präsentiert wurde, hat sich 15 Jahre später im Wesentlichen zu einer Spekulation entwickelt. Spekulation beinhaltet kurzfristige Investitionen, wobei der Zeitraum zwischen An- und Verkauf einer Aktie relativ kurz ist. Ein Spekulant setzt auf kurzfristige Entwicklungen des Börsenkurses und versucht, die Aktienkursentwicklung korrekt vorherzusagen, um entsprechend zu handeln.

    Aufgrund der begrenzten Menge an Bitcoins kann der Kurs und damit auch das Vertrauen in Bitcoin durch große institutionelle Anleger wie BlackRock oder Grayscale, beide Partner des World Economic Forums (WEF), beeinflusst werden. Es ist bemerkenswert, dass BlackRock während der Finanzkrise von 2007-2008 ebenfalls zu den Gewinnern zählte – eine Ironie des Schicksals in der Finanzwelt.

    Unabhängig davon hat Bitcoin maßgeblich dazu beigetragen, digitale Währungen im Bewusstsein der Öffentlichkeit zu verankern und die Wahrnehmung bezüglich der technologischen Entwicklung des Geldsystems sanft zu prägen. Gleichzeitig wurde die DLT-/Blockchain-Technologie im Feld erprobt und als Grundlage für weitere Entwicklungen etabliert. Zudem wurde der praktische Umgang breiter Bevölkerungsschichten mit einer dezentralen digitalen Währung weltweit getestet, ohne dabei das bestehende Finanzsystem wesentlich zu beeinträchtigen.

    Laut dem WEF-Dokument Understanding the macroeconomic impact of cryptocurrency and stablecoin economicskönnten diese digitalen Währungen potenzielle Triebkräfte für finanzielle Stabilität, Gerechtigkeit, Innovation und Marktanreize für ökologische Nachhaltigkeit sein.

    3.6. Tether (USDT) – Safe Haven (In God We Trust)

    Tether ist eine Kryptowährung, die auf Blockchain-Technologie basiert und als sogenannter Stablecoin (stabile Münze) konzipiert wurde. Ihr Ziel ist es, im Gegensatz zu anderen Kryptowährungen, deren Wert starken Schwankungen unterliegt, einen stabilen Wert zu bieten. Typischerweise ist der Wert von Tether an eine etablierte Fiatwährung wie den US-Dollar gebunden, wobei 1 Tether in der Regel 1 US-Dollar entspricht. Hinter Tether steht das Unternehmen Tether Limited.

    Man versucht, die Vorteile von Kryptowährungen (siehe Abb. 22) mit den Stabilitätsvorteilen einer Fiat-Währung zu verbinden. Ein naheliegender Anwendungsfall wäre der Einsatz als Tauschmittel. Jedoch werden Stablecoins wie Tether in der realen Welt selten für alltägliche Einkäufe akzeptiert, da nur Regierungen eine Währung als gesetzliches Zahlungsmittel erklären können. Heutzutage werden Stablecoins hauptsächlich auf Kryptowährungsbörsen verwendet. Händler nutzen sie, um volatile Kryptowährungen gegen stabile zu tauschen und so das Risiko zu mindern. Zum Beispiel können Investoren, die in den volatilen Bitcoin investiert haben und nicht das Risiko eingehen wollen, dass der Bitcoin-Preis gegenüber dem US-Dollar fällt, ihre Bitcoins (BTC) einfach in US Dollar Tether (USDT) umtauschen und den Dollarwert behalten. Wenn sie später wieder Bitcoins halten möchten, können sie ihre USDT problemlos zurück in BTC umtauschen. Anleger können Gewinne in Tether umwandeln, ohne das Krypto-Ökosystem verlassen zu müssen. Sie können ihre Kryptowährungen in Tether „parken“, um Wertschwankungen abzuwarten oder ihr Krypto-Vermögen ohne Wertverluste zu übertragen.

    Tether übernimmt somit die Funktion eines Safe Assets im virtuellen Krypto-Ökosystem.
    Ein „Safe Asset“ ist ein Vermögenswert, der als sicherer Hafen für Investoren betrachtet wird, besonders in Zeiten wirtschaftlicher Unsicherheit oder Turbulenzen. Solche Vermögenswerte zeichnen sich in der Regel durch Stabilität, geringe Volatilität und hohe Liquidität aus.

    Transaktionen in USDT gelten gleichzeitig als schnell und kostengünstig. Zudem sind grenzüberschreitende Zahlungen in Tether mit dem Wechsel in eine andere Zielwährung problemlos möglich.

    Aufgrund dieser Eigenschaften wird Tether auch als Bindeglied zwischen der virtuellen Kryptowährungswelt und der realen Finanzwelt gepriesen. In dem WEF-Beitrag von 2021 mit dem Titel „Cryptocurrencies are democratizing the financial world. Here’s how” liest man folgendes:

    Kryptowährungen wie Stablecoins, d. h. Kryptowährungen, die an andere Vermögenswerte wie den US-Dollar gekoppelt sind, können nun eine sicherere und vertrauenswürdigere Möglichkeit darstellen, das Vermögen der Menschen zu schützen.

    Wenn Sie zum Beispiel in Nigeria leben, ist Ihr Nettovermögen seit 2016 um fast 50 % gesunken, da der nigerianische Naira von etwa 200 Naira pro US-Dollar auf fast 400 Naira pro US-Dollar bis Ende 2020 gefallen ist. Wenn diese Vermögenswerte jedoch in einem Stablecoin wie Tether (USDT), einem an den US-Dollar gekoppelten Stablecoin, gehalten worden wären, wären sie vor einer drastischen Abwertung geschützt gewesen.“

    „Kryptowährungen und die Blockchain-Technologie, gepaart mit der weltweit zunehmenden Verbreitung des Mobilfunks und des Internets, mildern die zunehmenden finanziellen Ungleichheiten.

    Und es ist nicht undenkbar, sich vorzustellen, dass die Welt in den kommenden Jahrzehnten ein viel demokratischeres und zugänglicheres Finanzsystem haben wird. Finanzielle Inklusion könnte dank Kryptowährungen erreicht werden.“

    Insbesondere in Entwicklungsländern und Schwellenländern, wo die nationalen Währungen sehr volatil sind und das Bankensystem keine landesweite Abdeckung bietet, gewinnen solche Konzepte zunehmend an Akzeptanz (Abb. 25).

    Abb. 25: Akzeptanz von Kryptowährungen [statista]

    Wie schaffen Stablecoins wie Tether es, ihren Wert stabil zu halten, während andere Kryptowährungen starken Preisschwankungen unterliegen?

    Die Stabilität des Geldes, sei es physisch oder digital, beruht auf dem Vertrauen seiner Nutzer. Wenn der Markt Zweifel an der Werthaltigkeit eines USDT hegt, werden die Leute ihre USDT schnell abstoßen, was zu einem Preisverfall führen kann. Um dieses Vertrauen zu erhalten, hinterlegt beispielsweise das Unternehmen Tether Vermögenswerte als Sicherheit für seine Coins. Diese Sicherheiten dienen als Garantie dafür, dass das Unternehmen sein Versprechen hält und dass seine Coins tatsächlich den festgelegten Wert haben. Im Falle von Tether wird jeder USDT durch US-Dollar-Reserven und andere Vermögenswerte abgesichert. Neben Fiatwährungen können Stablecoins auch durch andere Vermögenswerte abgesichert werden, wie beispielsweise Gold, Erdöl oder andere Kryptowährungen.

    Im Unterschied zu Bitcoin verfügt Tether (USDT) über keine eigene Blockchain. Anstatt eine eigene Blockchain zu verwenden, wird Tether auf verschiedenen bestehenden Blockchain-Plattformen ausgegeben. Wie bereits im Kapitel 3.3. erläutert, ist ein Token im Allgemeinen eine digitale Einheit, die auf einer Blockchain-Plattform erstellt und ausgegeben wird und einen bestimmten Wert oder eine bestimmte Funktion repräsentiert. In Bezug auf Tether ist USDT ein Token, das den Wert eines US-Dollars repräsentiert. Jeder USDT-Token soll also immer den Wert von einem US-Dollar haben. Diese Tokens werden auf verschiedenen Blockchains ausgegeben und können in Wallets gespeichert, übertragen und gehandelt werden, genau wie andere Kryptowährungen und digitale Assets.

    USDT (Tether) kann als eine Form von tokenisiertem Geld betrachtet werden. Tokenisiertes Geld bezieht sich auf die digitale Darstellung traditioneller Fiatwährungen oder anderer Vermögenswerte in Form von Token auf einer Blockchain.

    Die Erzeugung eines USDT-Tokens, erfolgt typischerweise durch einen Einzahlungsprozess bei Tether Limited oder einer ihrer Partnerbanken. Ein Benutzer sendet eine bestimmte Menge an US-Dollar an Tether Limited oder hinterlegt sie auf einem speziellen Konto. Nach dem Eingang der Einzahlung gibt Tether Limited dann die entsprechende Menge an USDT-Token aus, die durch die eingezahlten US-Dollar abgesichert sind.

    Wenn Sie beispielsweise im Besitz eines Multi-Chain-Wallets sind, können Sie Ihre USDT-Tokens dorthin übertragen. Ein Multi-Chain-Wallet unterstützt mehrere Blockchains und ermöglicht es Ihnen, verschiedene Kryptowährungen auf verschiedenen Blockchains in einer einzigen Wallet zu verwalten. Dadurch können Sie Transaktionen in den unterstützten Blockchain-Netzwerken durchführen.

    Abb. 26: Tether (USDT) ist auf verschiedenen Blockchains verfügbar. Ein „Cross-Chain-Transfer“ bezieht sich auf die Übertragung von Kryptowährungen oder digitalen Vermögenswerten von einer Blockchain auf eine andere.

    Durch die Möglichkeit, Tether auf verschiedenen Blockchains zu verwenden, können die Benutzer von den verschiedenen Funktionen der einzelnen Netzwerke profitieren.

    Indem Tether von verschiedenen Blockchains unterstützt wird, erhöht sich auch die Liquidität und Interoperabilität der Währung, da sie zwischen den verschiedenen Blockchain-Plattformen ausgetauscht werden kann. Dies trägt zur weiteren Verbreitung und Akzeptanz von Tether bei und ermöglicht es den Benutzern, die Vorteile einer stabilen digitalen Währung in verschiedenen Kontexten zu nutzen.

    Jedoch gibt es auch Nachteile bei dieser Struktur. Das Unternehmen, das die Sicherheit des Stablecoins gewährleistet, übernimmt die Rolle einer privaten „virtuellen Zentralbank“. Im Falle von USDT ist das Tether Limited. Neben den Risiken der Veruntreuung und der Schwierigkeit, nachzuweisen, dass das Unternehmen über genügend Vermögenswerte verfügt, um die Menge der im Umlauf befindlichen Münzen abzusichern, stellt sich die Frage, wie langfristig die ausreichende Sicherheit gewährleistet werden kann und somit das Vertrauen der Öffentlichkeit aufrechterhalten bleibt.

    Letztendlich stellt sich die Frage nach der Regulierung: Werden die Regulierungsbehörden es Unternehmen erlauben, einen Vermögenswert zu schaffen, der einem gesetzlichen Zahlungsmittel ohne jegliche Aufsicht ähnelt?

    Chainalysis – Making the invisible visible

    Aus heutiger Sicht scheint der Einsatz von Stablecoins toleriert zu werden, solange er auf bestimmte geografische Gebiete beschränkt ist und klare Einsatzbedingungen festgelegt sind. Ein Bericht von Chainalysis mit dem Titel „The 2021 Geography of Cryptocurrency Report“ beschreibt, wie in einigen lateinamerikanischen Ländern Kryptowährungen als Reaktion auf wirtschaftliche Notlagen eingeführt werden. Das Ziel besteht darin, den Menschen in Lateinamerika durch den Einsatz von Stablecoins zu helfen, ihre wirtschaftlichen Schwierigkeiten zu mildern. Man liest folgendes:

    Viele lateinamerikanische Länder sind wirtschaftlich instabil, daher sind die Menschen dort nicht wirklich daran interessiert, mit Kryptowährungen zu handeln oder mit Bitcoin in Kontakt zu kommen, weil es auf 80.000 Dollar steigt. … Die Menschen versuchen zu überleben, also brauchen sie die Möglichkeit, zwischen ihrer lokalen Währung und Kryptowährung zu wechseln, um ihren Wert zu erhalten. … Überweisungen sind eine weitere treibende Kraft hinter der Einführung von Kryptowährungen in Lateinamerika. Dies ist nicht völlig überraschend, da die traditionellen Überweisungen in Fiat-Währung für viele lateinamerikanische Länder enorm wichtig sind. Nach Angaben der Weltbank werden die eingehenden Überweisungen im Jahr 2020 2,4 % des BIP für Lateinamerika als Ganzes aus, mehr als jede andere Region. In Ländern wie El Salvador und Honduras machen die Rücküberweisungen über 20 % des nationalen BIP aus. … 35% der venezolanischen Haushalte erhalten Rücküberweisungen aus dem Ausland. Der venezolanische Bolivar ist aufgrund der Hyperinflation praktisch wertlos. Kryptowährung bietet eine Möglichkeit für Venezolaner, die das Land verlassen haben, Geld zurückzuschicken, und die Empfänger können dieses Geld dann in einer stabileren Währung halten.

    BIP steht für Bruttoinlandsprodukt. Es ist eine wichtige wirtschaftliche Kennzahl, die den Gesamtwert aller Waren und Dienstleistungen misst, die innerhalb der Grenzen eines Landes innerhalb eines bestimmten Zeitraums, normalerweise eines Jahres, produziert wurden. Das BIP wird häufig verwendet, um die wirtschaftliche Leistungsfähigkeit eines Landes zu bewerten und miteinander zu vergleichen.

    Chainalysis ist eine Blockchain-Datenplattform, die Tools und Forschung für Regierungsbehörden und Finanzinstitute bereitstellt. Ihr Ziel ist es, eine globale Wirtschaft auf der Grundlage von Blockchains zu gestalten.

    Wir ebnen den Weg für eine globale Wirtschaft, die auf Blockchains basiert. Unternehmen, Banken und Regierungen nutzen Chainalysis, um wichtige Entscheidungen zu treffen, Innovationen zu fördern und Verbraucher zu schützen.

    Eine 70-sekündige Einleitung zu Chainalysis finden Sie im folgenden Video:

    Diese kurze Vorstellung demonstriert sehr klar, dass die Privatsphäre der Nutzer im Wesentlichen auf dem Konzept der „Pseudonymität“ beruht. Dabei wird eine Art asymmetrischer Schutz der Privatsphäre angewendet. Während die Mehrheit der Nutzer die wahre Identität einer Person hinter einem Pseudonym (z. B. öffentliche Adresse/Schlüssel) nicht kennt und somit die Privatsphäre (z. B. private Adresse/Schlüssel) gewahrt bleibt, besteht die Möglichkeit für eine ausgewählte Gruppe von Personen oder Institutionen, die wahre Identität durch spezielle Kenntnisse und den Zugriff auf entsprechende Technologien zu ermitteln. Daher bietet die Pseudonymität keine vollständige Anonymität, sondern gewährt eine gewisse Privatsphäre gegenüber der breiten Öffentlichkeit, während sie gleichzeitig die Rückverfolgbarkeit für bestimmte autorisierte Parteien ermöglicht.

    Das ist ein wichtiger Punkt. Die Möglichkeit, die Identität einer Person hinter einem Pseudonym zu ermitteln, trägt in gewisser Weise zur weiteren Konzentration von Wissen und Macht bei. Personen oder Organisationen, die über die Ressourcen und die technischen Fähigkeiten verfügen, die Identität zu entschlüsseln, können dadurch eine erhöhte Kontrolle über die Informationen und die Handlungen derjenigen ausüben, die Pseudonyme verwenden. Dies kann insbesondere dann problematisch sein, wenn diese Macht in den Händen weniger, mächtiger Institutionen oder Regierungen liegt, was zu einem Ungleichgewicht in Bezug auf Datenschutz und individuelle Freiheit führen kann.

    In diesem Sinne ist es wichtig, dass der Einsatz von Pseudonymität in der Gesellschaft und in technologischen Systemen mit entsprechenden Schutzmechanismen und Datenschutzbestimmungen einhergeht, um den Missbrauch von Wissen und Macht zu verhindern und die individuelle Privatsphäre zu wahren. In den meisten Fällen sind staatliche oder behördliche Institutionen für die Festlegung und Durchsetzung von Datenschutzbestimmungen und Schutzmechanismen gegen Datenmissbrauch verantwortlich. Diese Institutionen werden oft von den jeweiligen Regierungen eingerichtet.

    Der Einsatz von Stablecoins als virtuelles „Safe Asset“ in wirtschaftlich schwierigen Situationen hat weite Teile der Bevölkerung in den betroffenen Regionen für den Gebrauch digitaler Währungen sensibilisiert und gewissermaßen darauf vorbereitet. Infolgedessen wurden im Hintergrund technologische Infrastrukturen entwickelt und die Akzeptanz sowie der Umgang mit virtuellen „Safe Assets“ als eine Form von tokenisiertem Geld getestet und bewertet. Gleichzeitig wurden auch entsprechende Analyse- und Überwachungstools erprobt und verbessert, um die erforderliche Tiefe der Datenextraktion zu gewährleisten.

    Das Dokument „The Current State of Central Bank Digital Currencies (CBDCs) in 2023” von Chainalysis bietet weitere Einblicke darüber, wie das Krypto-Ökosystem als „Sparringpartner“ bzw. „Trainingscamp“ bei der weiteren Entwicklung und Evolution des Fiat-Finanzsystems fungiert.

    Die Blockchain-Technologie hat den digitalen Zahlungsverkehr schneller und einfacher denn je gemacht und die Verbreitung neuer Kryptowährungen für verschiedene Anwendungsfälle mit einzigartigen Merkmalen wie Dezentralisierung, Unveränderlichkeit, Pseudonymität und mehr ermöglicht. Diese Innovationen haben gezeigt, dass das globale Finanzwesen reif für Veränderungen ist – und die Regierungen haben dies zur Kenntnis genommen. Zentralbanken auf der ganzen Welt haben bereits damit begonnen, ihre Finanzsysteme für das Internet-Zeitalter umzugestalten.

    3.7. Libra – The King is Dead, Long Live the King!

    Was würde geschehen, wenn ein Stablecoin nicht nur von einem Unternehmen, sondern von einem Unternehmenskonsortium gestützt wird, zu dem unter anderem Firmen wie Master Card, Visa, Stripe, eBay, PayPal, Vodafone und Facebook (Meta) gehören?

    Hier ein paar Kennzahlen zusammengefasst:

    MasterCard und Visa: Beide sind die weltweit bekanntesten Kreditkartenunternehmen, die Zahlungsdienste für Kredit- und Debitkarten anbieten. Sie erleichtern den elektronischen Geldtransfer zwischen Verbrauchern, Händlern und Finanzinstituten weltweit und ermöglichen Transaktionen in verschiedenen Währungen. Laut Statistikdaten für das Jahr 2023 führt Visa mit über 4,3 Milliarden Karten weltweit, gefolgt von Mastercard mit 3,3 Milliarden Karten. [Kostenlose-Kreditkarte]

    Stripe: Stripe ist ein führendes Finanztechnologieunternehmen, das Online-Zahlungslösungen und Zahlungsabwicklungsplattformen für Unternehmen anbietet. Millionen von Unternehmen aller Größenordnungen nutzen heutzutage Stripe, um Zahlungen online und persönlich vor Ort zu akzeptieren, Auszahlungen vorzunehmen, Finanzprozesse zu automatisieren und letztendlich ihren Umsatz zu steigern.

    eBay: eBay ist eine der größten Online-Marktplätze der Welt, auf den Personen und Unternehmen Waren und Dienstleistungen kaufen und verkaufen können. eBay bietet eine Plattform für den E-Commerce, auf der Millionen von Transaktionen täglich stattfinden. Im Jahr 2023 wurden 132 Millionen aktive Kunden bei eBay gezählt. [statista]

    PayPal: PayPal ist ein bekannter Zahlungsdienstleister, der es Verbrauchern und Unternehmen ermöglicht, online Geld zu senden und zu empfangen. Es bietet sichere Zahlungslösungen für E-Commerce-Transaktionen und ermöglicht es den Nutzern, Geld auf elektronische Weise zu überweisen, Rechnungen zu bezahlen und Online-Zahlungen zu tätigen. Die Anzahl der aktiven Accounts des Online-Bezahldienstes PayPal belief sich im vierten Quartal 2023 auf 426 Millionen. [statista]

    Vodafone: Vodafone ist ein weltweit tätiges Telekommunikationsunternehmen mit Hauptsitz in Großbritannien. Das Unternehmen ist in vielen Ländern aktiv und betreibt Mobilfunknetze in über 20 Ländern und Festnetz- oder Breitbanddienste in vielen weiteren. Vodafone ist bekannt für seine globalen Telekommunikationsdienste, innovative Technologien und sein Engagement für die Bereitstellung von Konnektivität und Kommunikationslösungen für Privatpersonen, Unternehmen und Regierungen auf der ganzen Welt. Momentan hat Vodafone weltweit über 300 Millionen Mobilfunk-Kunden.

    Facebook (Meta): Facebook ist ein globales soziales Netzwerk und eines der größten Technologieunternehmen der Welt. Das Hauptziel von Facebook ist es, Menschen miteinander zu verbinden und den Austausch von Informationen, Inhalten und Ideen zu erleichtern. Facebook bietet auch Werbe- und Marketingdienstleistungen für Unternehmen an, die es ihnen ermöglichen, ihre Produkte und Dienstleistungen gezielt zu bewerben und mit ihrer Zielgruppe in Kontakt zu treten. Im vierten Quartal 2023 lag die Zahl der täglich aktiven Nutzer auf Facebook knapp bei 2,11 Milliarden. [statista]

    Die Vereinigung beträchtlicher finanzieller Mittel und modernster Technologien innerhalb eines globalen Netzwerks mit mehr als 4 Milliarden Nutzern könnte dazu führen, dass privat ausgegebene Kryptowährungen das Geld der Zentralbanken und Geschäftsbanken als Zahlungsmittel ernsthaft herausfordern oder sogar teilweise verdrängen könnten. Infolgedessen könnten Zentralbanken die Kontrolle über das Zahlungsverkehrssystem an eine private Unternehmensgruppe abgeben, deren Netzwerkeffekte weitreichend, mächtig und potenziell schädlich sein könnten. Letztendlich könnte dies die geldpolitische Souveränität untergraben und die Finanzstabilität gefährden.

    Im Juni 2019 drohte genau dieses Szenario Realität zu werden, als Facebook (jetzt Meta) das Projekt namens Libra ankündigte. Libra sollte eine Kryptowährung sein, die durch Vermögenswerte abgesichert ist, also ein Stablecoin. Dieser sollte als Zahlungsmittel für die Mitglieder des weltweiten Netzwerks der Libra Association dienen, zu der die oben genannten Unternehmen gehörten. [wikipedia]

    Als essentielle Mitglieder der Libra-Assoziation sind Facebook (Meta), Visa, MasterCard, Stripe und Paypal allesamt Partner des World Economic Forums (WEF).

    Das Weltwirtschaftsforum ist die internationale Organisation für öffentlich-private Zusammenarbeit. Es bietet eine globale, unparteiische und gemeinnützige Plattform für sinnvolle Verbindungen zwischen Interessengruppen, um Vertrauen zu schaffen und Initiativen für Zusammenarbeit und Fortschritt aufzubauen. In einer Welt, die von komplexen Herausforderungen geprägt ist, bindet das Weltwirtschaftsforum politische, wirtschaftliche, akademische, zivilgesellschaftliche und andere führende Persönlichkeiten der Gesellschaft ein, um globale, regionale und industrielle Agenden zu gestalten. Das WEF verfolgt das Ziel, die internationale Zusammenarbeit zu fördern, um die großen Herausforderungen unserer Zeit anzugehen, und es spielt eine wichtige Rolle bei der Gestaltung globaler politischer, wirtschaftlicher und sozialer Entwicklungen. [weforum]

    Facebook kündigte am 15. Juli 2019 an, dass die Einführung der Währung erst erfolgen werde, wenn alle regulatorischen Bedenken ausgeräumt seien und Libra über die erforderlichen Genehmigungen verfüge. Am 18. September 2019 erklärte Mark Zuckerberg während eines Treffens mit führenden Vertretern der Demokraten im Senat, dass Libra nirgendwo auf der Welt ohne vorherige Genehmigung der US-Regulierungsbehörden eingeführt werde.

    Eine Revolution sieht wahrlich anders aus. Die Botschaft des Mitglieds des Weltwirtschaftsforums an politische Entscheidungsträger und Zentralbanker weltweit, dass es an der Zeit ist, die umfassenden Erkenntnisse und Erfahrungen, die man in den letzten 10 Jahren aus dem Krypto-Ökosystem gewonnen hat, praktisch in die weitere Entwicklung des Fiat-Finanzsystems umzusetzen, wurde rasch aufgegriffen.

    Die Libra-Initiative stieß einerseits auf erheblichen Widerstand von Regierungen, Zentralbanken und Regulierungsbehörden weltweit. Diese äußerten Bedenken hinsichtlich potenzieller Auswirkungen auf Geldpolitik, Finanzstabilität, Geldwäschebekämpfung und Datenschutz. Als Reaktion auf diesen Widerstand und den regulatorischen Druck wurde das Projekt formell umbenannt und umstrukturiert. Innerhalb von nur 6 Monaten nach der Ankündigung des Projekts zogen sich Visa, MasterCard, Stripe, PayPal, eBay und Vodafone aus der Initiative zurück. Schließlich gab Meta das Projekt im Januar 2022 auf und verwies auf regulatorische Hürden. Aufsichtsbehörden weltweit griffen ein und verboten privat ausgegebene Kryptowährungen als gesetzliches Zahlungsmittel. [wikipedia]

    Die Botschaft hat andererseits dazu geführt, dass die Einführung von digitalem Zentralbankgeld (CBDC) als unverzichtbar für die weitere Entwicklung des Fiat-Finanzsystems anerkannt wurde. Die Tatsache, dass es sich hierbei um eine strategische Entscheidung mit globaler Reichweite handelt, wird durch das Engagement des Atlantic Councils bei der Koordination dieses Prozesses verdeutlicht.

    Der Atlantic Council ist eine unabhängige, nicht parteiische Denkfabrik und ein Forum für politische Diskussionen, die sich auf transatlantische Beziehungen konzentriert. Der Atlantic Council beschäftigt sich mit einer Vielzahl von Themen, darunter Sicherheitspolitik, internationale Beziehungen, Wirtschaftsfragen, Technologie, Energie, Umwelt, und globale Governance. Zu den Mitgliedern des Atlantic Council gehören politische Führungskräfte, Regierungsbeamte, ehemalige Staats- und Regierungschefs, hochrangige Militärbeamte, Wirtschaftsführer, Akademiker und andere Persönlichkeiten des öffentlichen Lebens. [atlanticcouncil]

    Der Central Bank Digital Currency (CBDC) Tracker, der von dieser Denkfabrik im Juli 2021 veröffentlicht wurde, bietet einen Überblick über die rasante Entwicklung digitalen Zentralbankgeldes weltweit. Die interaktive Datenbank umfasst mittlerweile 130 Länder, die zusammen 98 % des globalen Bruttoinlandsprodukts (BIP) repräsentieren.

    Es wird nicht mehr darüber diskutiert, ob CBDC in den einzelnen Ländern eingeführt wird, sondern vielmehr darüber, wann und wie dies geschehen wird.

    3.8. Ethereum – Code is Law

    Im Kapitel 3.2. haben wir erfahren, dass die Blockchain-Technologie aus der Kombination bestehender Technologien wie Distributed Ledger Technologie (DLT), Kryptographie und Konsensalgorithmen entstanden ist. Das Ergebnis ist ein System, das Entscheidungen ohne eine zentrale Autorität treffen kann. Bitcoin ist ein konkretes Beispiel für die Anwendung eines solchen Systems (siehe Kapitel 3.5.). Die Blockchain-Technologie kann als ein System betrachtet werden, auf dem verschiedene Anwendungen und Programme entwickelt und ausgeführt werden können. Eine Währung wie Bitcoin ist nur eine mögliche Anwendung davon.

    Angesichts einer Technologie, die den Umgang mit Geld dezentralisieren kann, beginnen die Menschen zu erkunden, welche anderen Anwendungen oder Aufgaben, die derzeit noch zentralisiert sind, in einem dezentralisierten System besser erfüllt werden könnten. Doch für ein wirklich dezentralisiertes System ist ein großes Netzwerk von Computern erforderlich, um es zu betreiben. Am Anfang war die Bitcoin-Blockchain das einzige existierende Netzwerk, und es war ziemlich begrenzt. Dies lag daran, dass die Programmiersprache, die für Bitcoin verwendet wird, speziell für diese eine Anwendung definiert ist. Sie verfügt nur über einen kleinen Satz von Befehlen, den die Computer im Netzwerk verstehen und ausführen können (z. B. wer wie viel Geld an wen geschickt hat).

    Eine Programmiersprache ist eine formale Sprache, die dazu dient, Anweisungen zu verfassen, die von einem Computer ausgeführt werden können. Sie ermöglicht es einem Programmierer, Algorithmen zu entwerfen und zu implementieren, um bestimmte Aufgaben oder Probleme zu lösen.

    Um vielseitige und komplexe Aufgaben zu lösen, braucht man eine „vollständige“ Programmiersprache und ein spezielles Computernetzwerk, das diese Sprache versteht. Eine Programmiersprache gilt als „vollständig“, wenn es folgende Merkmale aufweist:

    1. Es kann Informationen speichern und damit arbeiten.
    2. Es kann Entscheidungen treffen und verschiedene Dinge tun, je nachdem, was gerade passiert (zum Beispiel „wenn dies, dann das“).
    3. Es kann bestimmte Aktionen wiederholt ausführen, solange es nötig ist (wie eine Schleife).
    4. Es erlaubt, bestimmte zusätzliche Aufgaben zu definieren und sie immer wieder auszuführen, wenn sie gebraucht werden.

    Wenn eine Programmiersprache all diese Eigenschaften hat, kann es jede mögliche Berechnung durchführen. Dadurch können jede berechenbare Funktion oder jedes berechenbare Problem gelöst werden.

    Nehmen wir an, Sie möchten ein eigenes dezentrales Programm, ähnlich wie Bitcoin, zu Hause erstellen. Dafür benötigen Sie zunächst ein tiefes technisches Verständnis für die zugrunde liegenden Konzepte von Kryptowährungen wie Blockchain, Konsensalgorithmen, Kryptographie, Transaktionen und Mining. Sie müssen eine Programmiersprache beherrschen, die es ermöglicht, den Konsensalgorithmus, die Transaktionsverarbeitung, Wallets, Netzwerkfunktionen und andere erforderliche Komponenten in einem Softwarealgorithmus zu implementieren. Nicht zuletzt müssen Sie ein riesiges Netzwerk von Computern einrichten, um diese Software auszuführen. Das klingt nach einer „Mission Impossible“, oder?

    In solch einer Situation kann Ihnen Ethereum zur Seite stehen. Ethereum ist eine Open-Source-Blockchain-Plattform, die es Entwicklern ermöglicht, dezentralisierte Anwendungen (DApps) zu erstellen und auszuführen. Konzipiert wurde sie von Vitalik Buterin im Jahr 2013. Der offizielle Start erfolgte im Jahr 2015. Wenn Sie ein dezentrales Programm erstellen möchten, das keine einzelne Person kontrolliert – nicht einmal Sie selbst, obwohl Sie es geschrieben haben – müssen Sie lediglich die Ethereum-Programmiersprache Solidity erlernen und mit dem Programmieren beginnen. Solidity gilt als „vollständige“ Programmiersprache, die die Entwicklung und Ausführung von komplexen Applikationen auf der Ethereum-Blockchain ermöglicht. Auf der Ethereum-Plattform laufen Tausende unabhängige Computer, was bedeutet, dass sie vollständig dezentralisiert ist. Sobald ein Programm im Ethereum-Netzwerk bereitgestellt wird, stellen diese Computer, auch Knoten genannt, sicher, dass es wie vorgesehen ausgeführt wird. Ethereum bildet die Infrastruktur für den weltweiten Betrieb von DApps.

    Im Abschnitt 3.5. haben wir die Bitcoin-Blockchain mithilfe der Analogie eines öffentlichen Notizbuchs (Ledger) erklärt, das für jedermann einsehbar ist. In diesem Notizbuch werden sämtliche Transaktionen verzeichnet, die jemals stattgefunden haben. Jede Seite dieses Notizbuchs entspricht einem Block, der eine Liste von Transaktionen enthält, wie beispielsweise Geldüberweisungen von einer Person an eine andere.

    Das Ethereum-Netzwerk kann ähnlich wie Bitcoin als eine Plattform für Kryptowährungen genutzt werden. Innerhalb des Ethereum-Ökosystems dient Ether als Kryptowährung. Ether ist ein Token, das speziell für die Nutzung auf der Ethereum-Plattform erstellt wurde und verwendet wird. Als primäres Zahlungsmittel des Ethereum-Netzwerks ermöglicht Ether Transaktionen zwischen Benutzern. Es kann verwendet werden, um Werte zu übertragen oder Zahlungen für Dienstleistungen und Produkte zu leisten. Tatsächlich ist die Kryptowährungsfunktion bei Ethereum nur von untergeordneter Bedeutung.

    Ether wird in erster Linie als Gebühr verwendet, die für jede Berechnung erhoben wird, die im Ethereum-Netzwerk im Zusammenhang mit einer Transaktion stattfindet. Im Ethereum-Ökosystem ist nichts kostenlos! Diese Gebühren machen Ether zur primären Voraussetzung für die Erstellung oder Nutzung von DApps (dezentralen Anwendungen) auf der Ethereum-Blockchain. Die Erhebung von Gebühren dient dazu, das Ethereum-Netzwerk vor Überlastung zu schützen. Wie bereits erwähnt, nutzt Ethereum eine vollständige Programmiersprache, die komplexe Berechnungen ermöglicht. Ohne Gebühren könnte ein böswilliger Akteur leicht versuchen, das Netzwerk zu stören, indem er eine unendliche Schleife innerhalb einer Transaktion ausführt, ohne dafür bestraft zu werden. Gebühren stellen sicher, dass solche Aktionen Kosten verursachen, was potenzielle Angreifer abschreckt und das Netzwerk vor absichtlichen Angriffen schützt.

    Ethereum ermöglicht es den Menschen, sich direkt miteinander zu verbinden, ohne dass eine zentrale Autorität dafür verantwortlich ist. Es ist ein Netzwerk von Computern, die sich zu einem leistungsstarken „dezentralen Supercomputer“ verbinden. Die kombinierte Rechenleistung der Netzwerkknoten kann genutzt werden, um komplexe Berechnungen durchzuführen oder Ressourcen für dezentralisierte Anwendungen (DApps) bereitzustellen, die auf der Plattform laufen. Auf diese Weise kann Ethereum eine Vielzahl von Anwendungsfällen unterstützen, ohne von einer zentralen Instanz kontrolliert zu werden.

    Abb. 27: Ethereum-Blockchain

    Ethereum ist ein Protokoll für die menschliche Koordinierung. Koordination ist ein Spiel, aber nicht eines, das gespielt wird, um zu gewinnen. Koordination ist eher wie die Pflege eines Gartens, in dem man nur arbeitet, damit der Garten weiter gedeiht.ethereum foundation

    In der Ethereum-Weltanschauung wird die menschliche Koordination als ein Spiel betrachtet, das bestimmten Regeln folgt. Diese Regeln werden in „Smart Contracts“ festgehalten. Ein Smart Contract ist im Grunde genommen wie ein digitaler Vertrag, eine automatisierte Vertragslösung, die bestimmte Aufgaben abarbeitet, sobald bestimmte Kriterien erfüllt sind.

    Um einen Smart Contract für Endbenutzer zugänglich zu machen, sind DApps notwendig, um eine Benutzeroberfläche zu bieten, durch die Benutzer mit Smart Contracts interagieren können. DApps kombinieren einen Smart Contract und eine Benutzeroberfläche, wodurch sie die Rolle der Vermittlung zwischen dem Benutzer und dem Smart Contract übernehmen. Ohne eine DApp wäre es für die meisten Benutzer schwierig, einen Smart Contract zu nutzen, da dies technisches Wissen und die Fähigkeit erfordert, direkt mit der Blockchain zu interagieren.

    Eine DApp stellt sicher, dass Benutzer die erforderlichen Informationen bereitstellen können, um Transaktionen auszuführen oder Aktionen im Smart Contract auszulösen, und sie präsentiert die Ergebnisse oder den aktuellen Zustand des Smart Contracts auf verständliche Weise für den Benutzer.

    Sowohl Smart Contracts als auch DApps werden mittels der Programmiersprache Solidity geschrieben. Solidity ist eine Programmiersprache, die speziell für die Erstellung von Smart Contracts auf der Ethereum-Blockchain entwickelt wurde. Durch die Nutzung von Solidity können Entwickler Smart Contracts schreiben, die die Regeln und Logik der DApp festlegen und sie auf der Ethereum-Blockchain ausführen lassen.

    Um diesen Vorgang besser zu verstehen, kann man sich die Kontoarten im Ethereum-Netzwerk anschauen.

    Kontoarten im Ethereum-Netzwerk

    Im Ethereum-Netzwerk gibt es zwei Arten von Konten:

    Externe Konten: Diese Konten werden von Benutzern des Ethereum-Netzwerks erstellt und genutzt. Sie können Ether (die Kryptowährung von Ethereum) halten und Transaktionen zwischen externen Konten durchführen. Externe Konten haben eine Adresse und einen privaten Schlüssel. Der Besitz eines privaten Schlüssels bedeutet die Kontrolle über den Zugriff auf den Inhalt des Kontos und autorisiert den Benutzer, Transaktionen zu initiieren. Das externe Konto wird über ein Ethereum-Wallet verwaltet. Das Ethereum-Wallet kann als Tor zum Ethereum-System betrachtet werden. Es hält ihre Schlüssel vor und kann für Sie Transaktionen erzeugen und übertragen.

    Wenn ein Benutzer eine DApp erstellen möchte, kann er die Ethereum-Programmiersprache Solidity nutzen, um sogenannte Smart Contracts zu schreiben. Wie bereits beschrieben, repräsentieren diese Smart Contracts die Programmlogik, nach der dezentrale Anwendungen (DApps) auf der Ethereum-Plattform betrieben werden. Sobald der Smart Contract erstellt wurde, wird er in „Bytecode“ übersetzt, eine für Computer verständliche Sprache. Der so vorbereitete Smart Contract kann dann in der Ethereum-Blockchain registriert werden, was die Erzeugung einer speziellen Transaktion erfordert. Nachdem diese Transaktion validiert wurde, wird der Bytecode des Smart Contracts in der Blockchain gespeichert. Sobald der Vertrag in der Blockchain eingetragen ist, erhält er (ähnlich wie Wallets) eine Ethereum-Adresse. Dadurch entsteht die zweite Kontoart bei Ethereum – das Vertragskonto.

    Vertragskonten: Vertragskonten sind spezielle Konten, die den Bytecode von Smart Contracts oder DApps enthalten. Diese Konten haben ebenfalls eine Adresse, verfügen jedoch nicht über einen privaten Schlüssel. Wenn ein Benutzer eine Transaktion an ein Vertragskonto sendet, wird der im Smart Contract definierte Code ausgeführt. Dadurch können Benutzer bestimmte Aktionen auslösen oder Anweisungen an den Smart Contract senden, um verschiedene Funktionen auszuführen. Transaktionen an Vertragskonten können Ether, Daten oder beides enthalten. Enthalten sie Ether, werden diese dem Vertragskonto gutgeschrieben. Enthalten sie Daten, können diese bei der Ausführung einer Funktion des Kontrakts verwendet werden.

    Abb. 28: Kontoarten im Ethereum-Netzwerk

    Transaktionen im Ethereum-Netzwerk

    Es ist essenziell, den grundlegenden Unterschied zwischen externen Konten und Vertragskonten zu erfassen. Ein externes Konto kann Nachrichten an andere externe Konten oder Vertragskonten senden, indem es eine Transaktion mit seinem privaten Schlüssel erstellt und signiert. Eine Transaktion zwischen zwei externen Konten ist einfach ein Werttransfer. Wenn jedoch eine Nachricht von einem externen Konto an ein Vertragskonto gesendet wird, löst sie den Code des Vertragskontos aus und ermöglicht ihm, verschiedene Aktionen wie Tokentransfers, das Schreiben in den internen Speicher, das Generieren neuer Token, das Durchführen von Berechnungen usw. auszuführen.

    Im Gegensatz zu externen Konten können Vertragskonten keine neuen Transaktionen eigenständig initiieren. Sie können stattdessen nur Transaktionen als Reaktion auf andere Transaktionen (von einem externen Konto oder Vertragskonto), die sie erhalten haben, versenden.

    Abb. 29: Transaktionen im Ethereum-Netzwerk

    Jede Aktion, die auf der Ethereum-Blockchain stattfindet, wird stets durch Transaktionen initiiert, die von extern kontrollierten Konten gesendet werden.

    Die Ethereum-Blockchain funktioniert wie eine Maschine, die auf Transaktionen basiert. Je nach den Anweisungen und Eingaben, die ihr gegeben werden, verändert sie ihren Zustand. In der Informatik bezieht sich der Begriff „Zustandsmaschine“ auf ein System, das verschiedene Zustände durchläuft und je nach Eingaben zwischen diesen Zuständen wechselt. Zum Beispiel, wenn ein neues Vertragskonto erstellt wird oder Ether für Transaktionen mit einem bestehenden Vertragskonto überwiesen wird, ändert sich der Zustand dieses weltweiten Computers, indem er die Transaktion aufzeichnet und die Kontostände sowohl der externen als auch der Vertragskonten aktualisiert.

    Abb. 30: Ethereum als Zustandsmaschine

    Die Zustandsmaschine von Ethereum kann vereinfacht wie folgt beschrieben werden: Sie beginnt mit einem „Genesis-Zustand“, ähnlich einem leeren Blatt Papier, bevor Transaktionen stattfinden. Wenn Transaktionen ausgeführt werden, ändert sich dieser Genesis-Zustand in einen finalen Zustand. Dieser finale Zustand repräsentiert den aktuellen Stand von Ethereum zu jedem Zeitpunkt.

    Der Zustand von Ethereum umfasst Millionen von Transaktionen, die in Blöcke gruppiert sind. Jeder Block enthält eine Sammlung von Transaktionen und ist mit seinem vorherigen Block verkettet.

    Abb. 31: Ausgeführte Transaktionen werden auf der Blockchain gespeichert und ändern den Zustand

    Um den Übergang von einem Zustand zum nächsten zu ermöglichen, muss eine Transaktion gültig sein. Um als gültig betrachtet zu werden, muss eine Transaktion einen Validierungsprozess durchlaufen, der als Mining oder Proof-of-Work bekannt ist. Mining ist ein Prozess, bei dem eine Gruppe von Knoten (also Computern) ihre Rechenleistung nutzt, um einen Block mit gültigen Transaktionen zu erstellen. Jedes Mal, wenn ein Miner einen Block erfolgreich validiert, werden neue Ether-Token erzeugt und an ihn ausgezahlt. Die grundlegenden Prinzipien ähneln denen, die im Kapitel 3.2. beschrieben sind.

    CODE IS LAW

    Smart Contracts werden auf der Ethereum-Blockchain gespeichert, was bedeutet, dass sie sicher und unveränderlich sind.

    Die Regeln und Bedingungen des Vertrags können nicht geändert werden. In der Ethereum-Blockchain sind alle Transaktionen und Zustandsänderungen transparent und nachvollziehbar.

    Jeder kann die Historie der Transaktionen eines bestimmten Smart Contracts überprüfen und den aktuellen Zustand abrufen, indem er die entsprechenden Daten in der Blockchain überprüft.

    In dem Video-Beitrag „CODE IS LAW? Smart Contracts Explained“ von Finematics wird der Begriff Smart Contract ausführlich und dennoch allgemeinverständlich erklärt.

    Lassen Sie uns einige Aspekte von Smart Contracts genauer betrachten. Wie im oben genannten Video erwähnt, deckt ein Smart Contract alle Schlüsselbereiche eines Vertrags ab: von der Identifizierung der Vertragsparteien über den Vertragsgegenstand bis hin zu Leistungen, Pflichten, Konditionen und Laufzeit, sowie der Verwaltung und Durchsetzung. Ein Smart Contract auf der Ethereum-Plattform ist absolut präzise. Er folgt der vorprogrammierten Logik bis ins kleinste Detail und wird deterministisch ausgeführt.

    Deterministisch bezieht sich auf ein Konzept, das in verschiedenen Disziplinen wie Mathematik, Philosophie, Informatik und Physik verwendet wird. Es bedeutet im Wesentlichen, dass ein Ereignis oder eine Serie von Ereignissen vollständig vorhersehbar ist, ohne Zufall oder Unsicherheit. In der Informatik bezieht sich „deterministisch“ auf Programme oder Algorithmen, bei denen bei gegebenen Eingaben immer das gleiche Ergebnis erzielt wird. Das bedeutet, dass die Ausführung eines deterministischen Algorithmus immer zu einem eindeutigen und vorhersehbaren Ergebnis führt, unabhängig von anderen Einflussfaktoren. Die tatsächliche Welt wird jedoch oft von verschiedenen, manchmal unvorhersehbaren Faktoren beeinflusst. Deterministische Modelle stellen in vielen Fällen nur eine Annäherung an die Realität dar.

    Da der Smart Contract in der Ethereum-Blockchain gespeichert ist, ermöglicht er praktisch keine nachträglichen Veränderungen. Dies gewährleistet, dass sämtliche Ausführungen des Vertrags mit absoluter Präzision behandelt werden, um sicherzustellen, dass der Vertrag ausschließlich das tut, was der Autor beabsichtigt hat. Dies entspricht dem Prinzip von „Code is Law“ (Code ist Gesetz). Ein Smart Contract auf Ethereum besitzt die ultimative Autorität, und niemand kann den Vertrag außer Kraft setzen.

    Die Durchführung von Smart Contracts auf einer dezentralen Plattform eröffnet neue Perspektiven für die zukünftige Ausgestaltung nicht nur des Finanzsystems, sondern auch für die Umsetzung spezifischer politischer Agenden. Diese Entwicklung kann als Grundlage für innovative Finanzdienstleistungen dienen und sowohl bei Transaktionen von der Regierung zum Bürger (Government-to-Citizen) als auch von Bürgern zur Regierung (Citizen-to-Government) signifikante Auswirkungen haben.

    3.8.1. Chainlink – Oracles, mediators between the gods and humans

    Smart Contracts sind Verträge, die auf Daten basieren und von ihnen abhängig sind. Die Bereitstellung korrekter Daten ist entscheidend, damit die Vereinbarung genau wie erwartet ausgeführt wird. Die Genauigkeit der Daten beeinflusst direkt die Ergebnisse eines Smart Contracts.

    Es ist wichtig zu verstehen, dass Blockchains bestimmte isolierende Eigenschaften innerhalb des World Wide Web aufweisen. Was sind die Ursachen dafür?

    Blockchains sind äußerst sicher und zuverlässig aufgrund bestimmter Konstruktionsprinzipien. Eine Blockchain erreicht Konsens, indem sie Daten verwendet, die bereits in ihrem eigenen Ledger gespeichert sind. Das Hauptbuch der Blockchain gilt als vertrauenswürdig, da es die Dezentralisierung nutzt, um alle Daten redundant mit Hilfe aller Knoten im Netzwerk zu validieren. Die Dezentralisierung gewährleistet auch die Integrität des Konsensalgorithmus, da Änderungen der Protokollregeln nur mit Zustimmung eines wesentlichen Teils des Netzwerks möglich sind (z. B. 51 %). Diese Eigenschaften bieten starke Garantien für den Determinismus von Berechnungen und Datenspeicherung, insbesondere in stark dezentralisierten Netzwerken.

    Blockchains sind jedoch weniger geeignet, um Fragen zu beantworten, die subjektive Einschätzungen erfordern oder externe Daten nutzen, die nicht für jeden Knoten im Netzwerk einfach zugänglich sind. Zum Beispiel könnten Fragen wie „Was ist der aktuelle EUR-USD Wechselkurs?“ oder „Wie ist das Wetter in Berlin?“ zu unterschiedlichen Antworten führen, abhängig von der verwendeten Datenquelle und dem Zeitpunkt der Abfrage. Infolgedessen stellt sich die Frage, welche Antwort als die korrekte betrachtet werden sollte und wie ihre Richtigkeit überprüft werden kann. Darüber hinaus erfordert jede Änderung oder Anpassung an den Datenquellen des Blockchain-Netzwerks eine umfassende Koordinierung, um sicherzustellen, dass alle Netzwerkknoten zustimmen und ihre Software entsprechend aktualisieren.

    Aus diesem Grund sind Blockchains nicht in der Lage, eigenständig eine Verbindung zu realen Daten und Ereignissen herzustellen.

    Abb. 32: Blockchains sind nicht in der Lage, eigenständig eine Verbindung zu realen Daten und Ereignissen herzustellen. [What Is an Oracle in Blockchain?]

    Smart Contracts und Dapps, die auf der Ethereum-Blockchain laufen, können direkt nur auf Daten zugreifen, die auf der Ethereum-Blockchain vorhanden sind. Da das Ethereum-Ökosystem noch in einem frühen Entwicklungsstadium ist und aufgrund der spezifischen Konstruktionsprinzipien von Blockchains ist die Menge an validierten Daten, die direkt von Smart Contracts genutzt werden können, relativ begrenzt. Der Hauptfokus liegt auf verschiedenen Bereichen, darunter:

    • Aufbau von dezentralisierten Finanzdienstleistungen (DeFi) mit Kryptowährungen
    • Applikationen, die sich auf digitales Eigentum konzentrieren
    • Gaming
    • Metaverse
    • Soziale Netzwerke
    • Dezentralisierung von Entwicklerwerkzeugen als Grundlage für weitere technologische Entwicklungen

    Hier liegt das Dilemma: Die meisten Daten aus der realen Welt befinden sich nicht auf der Blockchain. Ohne Zugang zu diesen Daten wäre der Einsatz von Smart Contracts stark eingeschränkt. Um Smart Contracts auch für den Alltag nutzen zu können, benötigen sie externe Konnektivität, um mit anderen Systemen zu kommunizieren und das Eintreten realer Ereignisse zu bestätigen. Das wiederum bringt Risiken und Herausforderungen mit sich, insbesondere in Bezug auf die Sicherheit und Vertrauenswürdigkeit der Daten. Somit stehen die Vorteile der Nutzung von Smart Contracts im Konflikt mit den Schwierigkeiten bei der Integration externer Daten.

    An dieser Stelle kommen die sogenannten Oracle-Services ins Spiel.

    In der Mythologie bezieht sich ein Orakel auf eine göttliche oder spirituelle Entität, die als Vermittler zwischen den Göttern und den Menschen dient und als Instanz, die als Überbringer von Informationen fungiert.

    Im Blockchain-Kontext sind Oracle-Services externe Dienste oder Protokolle, die Smart Contracts mit Daten oder Informationen aus der realen Welt verbinden. Da Smart Contracts auf Blockchain-Plattformen wie Ethereum nicht direkt auf externe Datenquellen zugreifen können, sind Oracle-Services erforderlich, um diese Lücke zu schließen.

    Oracle-Services fungieren als Vermittler zwischen der Blockchain und externen Datenquellen wie APIs, IoT-Geräten, traditionellen Datenbanken oder anderen Blockchain-Netzwerken. Sie sammeln und liefern Echtzeitdaten oder Ereignisse an Smart Contracts, damit diese auf Basis dieser Daten automatisch Aktionen ausführen können.

    Eine API (Application Programming Interface) bezeichnet eine Schnittstelle, die es ermöglicht, Daten von einem externen Dienst oder System abzurufen. Dies ermöglicht eine nahtlose Integration externer Daten in Anwendungen und erleichtert die Entwicklung von Anwendungen, die auf aktuelle Informationen angewiesen sind.

    Ein IoT-Gerät (Internet of Things) ist ein physisches Gerät oder eine Maschine, das/die mit dem Internet verbunden ist und Daten über das Internet senden und empfangen kann. Die Verwendung von IoT-Geräten ermöglicht die Automatisierung, Überwachung und Optimierung von Prozessen und Systemen in verschiedenen Bereichen, was zu Effizienzsteigerungen, Kosteneinsparungen und neuen Möglichkeiten für Innovationen führen kann.

    Ein Oracle-Service kann beispielsweise Informationen wie Wetterdaten, Börsenkurse, Lieferstatus von Paketen oder Ergebnisse von Sportereignissen an einen Smart Contract liefern. Dadurch wird es möglich, dass Smart Contracts auf der Blockchain auf aktuelle Informationen zugreifen und entsprechend reagieren können, ohne auf manuelle Eingaben von Benutzern angewiesen zu sein.

    Oracle-Services sind somit von entscheidender Bedeutung für die Funktionalität und den Nutzen von Smart Contracts in Anwendungsfällen, die auf reale Ereignisse oder externe Daten angewiesen sind.

    Oracles reagieren auf Anfragen von Smart Contracts nach Off-Chain-Daten. Sie rufen diese Daten von externen Systemen ab und wandeln diese in einem für die Blockchain lesbares Format um. Dabei werden die Daten validiert und ein kryptografischer Nachweis, der die Leistung des Oracle-Dienstes bescheinigt, erstellt. Je nach Anwendungsfall kann der Oracle Off-Chain Berechnungen auf der Grundlage von den verfügbaren Daten durchführen. Die so aufbereiteten Daten werden dann an die Blockchain übertragen, um vom Smart Contract weiter verarbeitet zu werden. Wenn der Smart Contract Informationen an Off-Chain Systeme transferieren muss, so werden diese vom Oracle in ein für das jeweilige externe System lesbares Format zurück gewandelt und an das externe System gesendet. Eine schematische Darstellung findet man in folgender Abbildung.

    Abb. 33: Orakel verbinden Eingaben und Ausgaben mit Blockchains, um hybride intelligente Verträge zu erstellen. [What Are Smart Contracts and How Do They Work?]

    Smart Contracts, die auf Off-Chain Daten zugreifen, werden auch Hybrid Smart Contract bezeichnet. Diese Unterscheidung ist nicht zufällig und hängt mit der Entwicklung vom World Wide Web (WWW) zusammen. Die einzelnen Entwicklungsstufen des WWW sind in den folgenden Abbildungen zusammengefasst.

    Abb. 34: Entwicklungsstufen des WWW – Web 1.0

    Im Web 1.0 bestand das Internet hauptsächlich aus statischen Webseiten, die im Besitz von Unternehmen waren. Es gab kaum Interaktion zwischen den Benutzern, und Einzelpersonen produzierten nur selten Inhalte. Dies führte dazu, dass es als „reines Lese-Web“ bekannt wurde.

    Abb. 35: Entwicklungsstufen des WWW – Web 2.0

    Mit der Entwicklung zum Web 2.0 verlagerte sich das Internet zu einem „Lese-Schreib-Web“. Unternehmen begannen, Plattformen für den Austausch von nutzergenerierten Inhalten und die Interaktion zwischen den Nutzern anzubieten. Allerdings begannen einige große Unternehmen einen überproportionalen Anteil am Datenverkehr und an den im Internet generierten Werten zu kontrollieren, als immer mehr Menschen online gingen. Dies bedeutet, dass der größte Teil des Internets, den die Menschen heute kennen und nutzen, auf dem Vertrauen in eine Handvoll privater Unternehmen basiert, die im Interesse der Öffentlichkeit handeln.

    Abb. 36: Entwicklungsstufen des WWW – Web 3.0

    Der Begriff Web 3.0 wurde von Ethereum-Mitbegründer Gavin Wood kurz nach dem Start von Ethereum im Jahr 2014 geprägt. Ein zentrales Merkmal des Web 3.0 ist die Dezentralisierung, bei der Macht und Kontrolle von zentralisierten Institutionen auf die Nutzer und die Gemeinschaft übertragen werden. Damit ist Web 3.0 bestrebt, das Internet in eine Richtung zu entwickeln, in der die Benutzer mehr Autonomie und Kontrolle über ihre eigenen Daten und Interaktionen haben. Symbolisch steht Web 3.0 für „lesen, schreiben, besitzen“. Die Blockchain-Technologie wird oft als eine Schlüsselkomponente von Web 3.0 betrachtet.

    Ein Smart Contract im Sinne von Web 3.0 wird auf einer Web 3.0 Infrastruktur (Blockchain) ausgeführt und verwendet Daten, die dezentral verifiziert sind (Daten im eigenen Ledger).

    Ein Hybrid Smart Contact verwendet eine Web 3.0 Infrastruktur (Blockchain), greift aber auf Daten, die meistens in Web 2.0 erzeugt sind. Durch diesen Spagat versucht man, die Vorteile der Smart Contracts für Problemstellungen im realen Alltag zu nutzen.

    Die reale Welt kann als ein zentralisiertes System betrachtet werden, obwohl es viele dezentrale Elemente gibt. In den meisten Gesellschaften gibt es eine zentrale Autorität oder Institutionen, die eine gewisse Kontrolle über wichtige Aspekte des Lebens ausüben, wie zum Beispiel Regierungen, Gesetzgebung, Gerichte, Unternehmen und andere Organisationen. Diese zentralen Autoritäten haben oft die Macht, Entscheidungen zu treffen, Regeln aufzustellen und Ressourcen zu kontrollieren. Dies führt zu einer Konzentration von Macht und Einfluss in den Händen weniger, während die Mehrheit der Bevölkerung von diesen zentralen Strukturen abhängig ist. Dennoch gibt es auch dezentrale Elemente in der Gesellschaft, wie informelle soziale Netzwerke, lokale Gemeinschaften, unabhängige Organisationen und persönliche Beziehungen, die nicht von zentralen Autoritäten kontrolliert werden.

    Insgesamt kann die reale Welt als ein hybrides System betrachtet werden, das sowohl zentralisierte als auch dezentrale Elemente enthält. Die Entwicklung von Technologien wie Blockchain und dezentralen Netzwerken kann dazu beitragen, einige Aspekte der Zentralisierung herauszufordern und die Möglichkeit bieten, Macht und Kontrolle auf eine breitere Basis zu verteilen.

    In einigen Anwendungsfällen könnte ein Smart Contract auf einer Blockchain mit Hilfe von Orakel nur auf Daten aus einer anderen Blockchain zugreifen ohne weitere Interaktionen mit Web 2.0 basierenden Systemen.
    „Smart Contracts“ können auch auf Web 2.0 ausgeführt werden, obwohl sie in diesem Kontext möglicherweise nicht so effektiv sind wie auf Blockchain-basierten Plattformen im Rahmen von Web 3.0. In Web 2.0 können Smart Contracts in zentralisierten Umgebungen implementiert werden, die auf herkömmlichen Servern und Datenbanken basieren. Diese Smart Contracts würden von einem zentralen Server oder einer zentralen Autorität verwaltet und ausgeführt werden. Obwohl sie einige der Vorteile von Automatisierung und Programmierbarkeit bieten können, fehlt ihnen die Dezentralisierung und Transparenz, die mit Blockchain-basierten Smart Contracts verbunden sind.
    Ein Beispiel für die Verwendung von Smart Contracts in Web 2.0 könnte ein Online-Zahlungssystem sein, das auf einem zentralen Server betrieben wird. In diesem Fall könnten Smart Contracts verwendet werden, um Zahlungen automatisch auszuführen, wenn bestimmte Bedingungen erfüllt sind, ähnlich wie bei Blockchain-basierten Smart Contracts. Allerdings wäre die Ausführung dieser Smart Contracts von der Integrität und Sicherheit des zentralen Servers abhängig, was nicht die gleiche Vertrauenswürdigkeit und Unveränderlichkeit bietet wie eine Blockchain.

    Damit Smart Contracts wie erwartet funktionieren, müssen die von Oracle gelieferten Daten korrekt sein. Daher ist es entscheidend, dass der Oracle-Mechanismus fehlerfrei ist. Eine innovative Lösung für das Oracle-Problem sind dezentrale Oracle-Services. Diese verhindern Datenmanipulation, Ungenauigkeiten und Ausfallzeiten. Ein dezentrales Oracle-Netzwerk (Decentralized Oracle Network, kurz DON) vereint mehrere unabhängige Oracle-Knotenbetreiber und zuverlässige Datenquellen, um eine durchgängige Dezentralisierung zu gewährleisten. So eine Lösung wird von der Firma Chainlink angeboten (Abb. 37).

    Abb. 37: Dezentrale Oracle-Netzwerke (DONs) ermöglichen es intelligenten Verträgen, sich sicher mit externen Daten und Systemen zu verbinden. [What Is Offchain Data and Computation?]

    Chainlink bietet eine dezentrale Infrastruktur, die es ermöglicht, Daten von verschiedenen Datenquellen zu sammeln und in die Blockchain zu bringen. Es verwendet ein Netzwerk von „Oracles“, die die Daten sammeln, validieren und in die Blockchain einspeisen. Diese Oracles sind unabhängige Knoten, die Daten liefern und sich am Chainlink-Netzwerk beteiligen.

    Chainlink nutzt zwar einige Blockchain-Prinzipien und integriert sich in verschiedene Blockchain-Netzwerke wie Ethereum, jedoch handelt es sich nicht um eine eigenständige Blockchain. Es bietet vielmehr eine Infrastruktur und ein Ökosystem, das darauf abzielt, Daten von externen Datenquellen zu sammeln und in die Blockchain zu bringen, um Smart Contracts mit Echtzeitdaten zu versorgen.

    Das folgende Video liefert eine kurze Zusammenfassung der dezentralen Oracle-Netzwerk-Lösung von Chainlink.

    Um das grenzenlose Potenzial universell verbundener Smart Contracts zu veranschaulichen, hat Chainlink eine Liste von mehr als 77 Anwendungsmöglichkeiten zusammengestellt.

    Schauen wir uns einige der von Chainlink genannten Beispiele etwas genauer an:

    Externer Zahlungsverkehr

    Heutzutage ist Geld das übliche Mittel zur Bewertung von Vermögenswerten und zum Kauf von Dienstleistungen. Smart Contracts können Zahlungen in der Kryptowährung ihrer eigenen Blockchain abwickeln, zum Beispiel Ethereum Smart Contracts, die ETH akzeptieren. Viele Unternehmen und Nutzer möchten jedoch nicht ihre bevorzugte Fiat-Währung in Kryptowährung umtauschen. Stattdessen bevorzugen sie, auf eine Vielzahl bereits etablierter Zahlungsoptionen und -dienste zurückzugreifen. Chainlink ermöglicht die Verbindung von Smart Contracts mit bestehenden Bankensystemen. Entwickler können so nahtlos Informationen und Dienste wie Bankkonten von Verbrauchern, direkte Einzahlungen und andere Prozesse führender globaler Banken in ihre Algorithmen integrieren. Zusätzlich bietet Chainlink Zugang zu führenden Kreditkartenanbietern und etablierten Zahlungsnetzwerken wie PayPal und anderen. Entwickler können nun Anwendungen erstellen, die die Vorteile der gefragtesten Zahlungsmethoden nutzen, die sowohl im Inland als auch international im Einzelhandel täglich verwendet werden.

    Dies legt den Grundstein für die Integration von Transaktionen mit allen bereits etablierten digitalen Fiat-Geldvarianten wie Debit- und Kreditkarten, elektronischen Geldbörsen oder Apps sowie digitalen Einlagen bei Geschäftsbanken in Smart Contracts.

    Versicherungen

    Die Versicherungsbranche operiert heute in einem Umfeld, das von geringem Vertrauen geprägt ist. Versicherungsnehmer haben einen Anreiz, positive Informationen in ihren Anträgen falsch anzugeben, um ihre monatlichen Beiträge zu senken, während Versicherer dazu tendieren, Zahlungen zu verzögern und Tarife zu erhöhen, um falsch dargestellte Risikoprofile auszugleichen. Traditionelle Versicherungsunternehmen können von der Blockchain-Technologie profitieren, indem sie fortschrittliche, auf Smart Contracts basierende parametrische Versicherungsverträge entwickeln, die automatisch Versicherungsbeiträge und Auszahlungen basierend auf realen Daten auslösen, die von dezentralen Oracle-Netzwerken bereitgestellt werden.

    • Kraftfahrzeugversicherung

    Moderne Fahrzeuge sind mit einer Vielzahl interner Sensoren, Internetverbindungen und sogar nativen APIs ausgestattet. Ein Smart Contract kann einige dieser Daten nutzen, um die Mietdauer festzulegen, die Fahrzeugtüren für den Mieter zu entriegeln, die Mietdauer aufzuzeichnen, die gefahrenen Kilometer zu berechnen, die verbleibende Batterieladung zu ermitteln und die Mietzahlungen zu automatisieren. Auf diese Weise können komplexe Mietverträge für „Smart Cars“ erstellt werden. Zusätzlich werden neue Versicherungsformen verfügbar sein, die auf der Grundlage von Aufprallsensoren im Fahrzeug ausgelöst werden, oder Versicherungsrabatte, die auf Metriken wie der pro Jahr gefahrenen Kilometer basieren.

    • Hausratversicherung

    Das zunehmende Phänomen des „Smart Home“ führt zur Verbreitung von Sensoren und fortschrittlichen Sicherheitssystemen, die Hausbesitzer und Notdienste automatisch über ungewöhnliche Ereignisse informieren. Diese Sensoren können über Chainlink-Orakel mit Smart Contracts verbunden werden, um neue parametrische Hausversicherungsprodukte zu schaffen. Sie können beispielsweise gebrochene Rohre, Feuer- und Rauchentwicklung, schlecht funktionierende Solarpaneele oder sogar Einbrüche erkennen, um einen direkteren Schutz durch das Alarmsystem des Versicherungsunternehmens zu ermöglichen.

    • Krankenversicherung

    Durch zahlreiche Fortschritte bei Biotech- und IoT-Wearables wie Smartwatches können Versicherungsunternehmen Smart Contracts erstellen, die Krankenversicherungsrabatte anbieten oder Strafen basierend auf den Gesundheitsdaten eines Patienten verhängen. Wichtige Datenpunkte könnten die zurückgelegte Strecke (Training), das Körpergewicht, die Herzfrequenz und möglicherweise fortschrittlichere biometrische Daten umfassen, sobald sie in Zukunft verfügbar sind. Chainlink-Orakel können auch Datenanomalien erkennen, die obligatorische Konsultationen auslösen können, um günstige Versicherungsbeiträge aufrechtzuerhalten.

    Nachhaltigkeit / Regenerative Landwirtschaft

    Hybride Smart Contracts, welche die Vorteile von On-Chain-Code mit Echtzeitdaten von IoT-Sensoren und Satellitenkommunikation kombinieren, bieten die Möglichkeit, transparente, vollständig rückverfolgbare und automatisierte Anreizsysteme zu schaffen. Diese Systeme können Einzelpersonen, Unternehmen und Regierungen direkt für ihre Bemühungen zur Förderung nachhaltiger Praktiken und den Kampf gegen den Klimawandel belohnen sowie seine schädlichen Auswirkungen mindern. Diese Anwendungen können die Schaffung von tokenisierten CO2-Kompensationen, Förderung regenerativer Landwirtschaft und Überwachung des Ressourcenverbrauchs umfassen, um diejenigen zu belohnen, die innerhalb ihrer Möglichkeiten bleiben.

    Diese Beispiele verdeutlichen, wie Ihre finanzielle Situation, Ihre Mobilität, Ihr Lebensumfeld, Ihr Arbeitsumfeld und sogar Ihr physisches Wohlbefinden in algorithmische Regeln eingebettet und in Smart Contracts integriert werden können. Betrachtet man dies visionär, könnte das Konzept von „Code is Law“ bald dazu führen, dass wesentliche Aspekte Ihrer Lebensgeschichte durch Smart Contracts auf magische Weise beeinflusst werden.

    3.8.2. Hinter den Kulissen – Behind the Scenes

    Chainlink pflegt eine enge Zusammenarbeit mit dem Weltwirtschaftsforum (WEF). In einem Artikel des WEF mit dem Titel „Das fehlende Bindeglied zwischen Blockchains und Unternehmen“ sowie in einem Whitepaper des WEF mit dem Titel „Überbrückung der Governance-Lücke: Interoperabilität von Blockchain und Legacy-Systemen“ wird die Technologie von Chainlink positiv hervorgehoben und beworben.

    Die Ethereum-Plattform wird von der Ethereum Foundation unterstützt, einer gemeinnützigen Organisation, die 2014 ins Leben gerufen wurde. Ihr Hauptanliegen ist die Entwicklung und Förderung der Ethereum-Plattform. Die Ethereum Foundation nimmt eine entscheidende Rolle ein, indem sie die Ethereum-Entwicklergemeinschaft unterstützt, Bildung und Forschung im Bereich Blockchain und Kryptowährungen fördert und die kontinuierliche Weiterentwicklung der Ethereum-Technologie vorantreibt.

    Die Ethereum Foundation und das Weltwirtschaftsforum (WEF) pflegen auch eine enge Zusammenarbeit. Aya Miyaguchi, geschäftsführende Direktorin der Ethereum Foundation, wurde 2019 in den Blockchain Global Council des WEF berufen. Gemeinsam arbeiten sie an verschiedenen Projekten, darunter die Frage, wie Blockchain-Prinzipien zur Verbesserung von Umwelt-, Sozial- und Governance-Systemen (ESG) beitragen können.

    Ein weiterer Berührungspunkt besteht mit der Firma ConsenSys. Joseph Lubin, der Gründer und CEO von ConsenSys, ist auch einer der Mitbegründer von Ethereum. ConsenSys ist als Partnerorganisation des Weltwirtschaftsforums gelistet. In einem White Paper von CosenSys „Zentralbanken und die Zukunft des digitalen Geldes / Ein Überblick und Vorschlag für eine digitale Zentralbankwährung auf der Ethereum-Blockchain“ kann man folgendes nachlesen:

    „Nach Angaben der Bank für Internationalen Zahlungsausgleich erwägen über 70 % der Zentralbanken die Ausgabe einer digitalen Währung auf einer Blockchain.

    CBDCs können eine Reihe von Vorteilen bieten. Sie können eine zentrale Rolle spielen, wenn es darum geht, die Revolution der digitalen Vermögenswerte auf regulierte, risikoärmere und vor allem zugängliche Weise voranzutreiben und dazu beitragen, dass die Finanzmärkte effizienter und für alle Bürger der Welt zugänglicher werden.

    CBDC können den Zentralbanken wirksamere, zukunftsorientierte Instrumente an die Hand geben, die es ihnen ermöglichen, die Geldpolitik auf direktere und innovativere Weise umzusetzen und mit dem technologischen Wandel Schritt zu halten. CBDCs könnten auch die Kosten für grenzüberschreitende Überweisungen vereinfachen und senken und gleichzeitig die Grundlage für effizientere und sicherere Interbankenzahlungsnetze bilden. Die Liste ließe sich fortsetzen.

    Im Folgenden geben wir sowohl einen Überblick über CBDC als auch ein konkretes Beispiel dafür, wie ein CBDC auf der Ethereum-Blockchain implementiert werden könnte. Wir sind der Meinung, dass Ethereum das am Besten geeignete Blockchain-Netzwerk für die Art von maximal sicheren, global ausgerichteten, interoperablen Abwicklungsplattformen ist, die CBDCs benötigen. Wir sind uns aber durchaus bewusst, dass es noch viele andere Möglichkeiten gibt.

    Wichtig ist, dass die Zentralbanken das Ausmaß der Veränderungen erkannt haben, die sich bei digitalen Währungen bereits vollziehen, und dass sie erkennen, wie wichtig es ist, eine wichtige Rolle bei der Herbeiführung dieses Wandels zu übernehmen.

    Die Tatsache, dass man Distributed Ledger Technologie für die Lösung von essentiellen Aufgaben in einem zentralisierten Ledger-System avisiert, klingt wie ein Paradoxon. Aber mehr dazu in den nachfolgenden Kapiteln.

    3.9. Zwischenbilanz

    Kryptowährungen wurden 2009 als alternative, demokratische Option zum traditionellen Bank- und Finanzsystem vorgestellt, das als elitär wahrgenommen wird. Trotz dieser ambitionierten Vision sind die meisten Krypto-Projekte auf ein gemeinsames Problem gestoßen: die Anerkennung als geeignetes Zahlungsmittel in der realen Welt, die von Fiat-Währungen dominiert wird. Einige Kryptowährungen haben sich als äußerst volatil erwiesen, während die Netzwerke oft als langsam, umständlich und komplex für den Durchschnittsnutzer empfunden werden. Stablecoins hingegen werden sowohl wegen Bedenken hinsichtlich der Absicherung der zugrunde liegenden Kryptowährung als auch wegen regulatorischer Hürden, insbesondere bei Projekten wie Libra, skeptisch betrachtet.

    Dadurch entsteht jedoch eine ideale Testumgebung, um unterschiedliche Aspekte bei der Einführung verschiedener dezentraler digitaler Währungen weltweit zu erforschen, ohne das bestehende Finanzsystem wesentlich zu stören.

    Distributed Ledger Technologien, insbesondere die Blockchain, wurden in der Praxis erprobt und weiterentwickelt. Gleichzeitig wurde die Nutzung dezentraler digitaler Währungen durch digitale Geldbörsen weltweit von einer breiten Bevölkerung getestet. Das Konzept der Pseudonymität, das Privatsphäre schützt und gleichzeitig Transaktionen transparent macht, wurde eingeführt. Der Einsatz von virtuellen „Safe Assets“ als tokenisiertes Geld in wirtschaftlich schwierigen Situationen hat die Akzeptanz digitaler Währungen in betroffenen Regionen erheblich gesteigert und die Bevölkerung auf deren Nutzung vorbereitet.

    Smart Contracts wurden eingesetzt, um programmierbare Funktionen in komplexen Transaktionen einzuführen. Zusätzlich wurde eine entsprechende Infrastruktur aufgebaut, um Smart Contracts mit Echtzeitdaten aus der realen Welt zu versorgen, wodurch ihr Anwendungsbereich auch über die Krypto-Ökosysteme hinaus erweitert wurde.

    Gleichzeitig wurden auch entsprechende Analyse- und Überwachungstools erprobt und verbessert, um Regulierungsbehörden die erforderliche Datenextraktionstiefe zu bieten.

    Die Kryptowährungen haben dazu beigetragen, das Bewusstsein der Öffentlichkeit für den Umgang mit digitalen Währungen zu schärfen und die Wahrnehmung bezüglich der technologischen Entwicklung des Geldsystems positiv zu beeinflussen.

    Die Gestaltung von Central Bank Digital Currencies (CBDCs) wird stark von den technologischen Innovationen aus der Kryptowelt beeinflusst werden. In den folgenden Abschnitten wird dies genauer erläutert.

    4. CBDC – The Digital EURO – A New Star is Born

    In den vorherigen Kapiteln wurde betont, dass das aktuelle Fiat-Geldsystem vor vielschichtigen strukturellen und technologischen Herausforderungen steht. Die Einführung einer digitalen Zentralbankwährung (CBDC) wird als entscheidender Schritt angesehen, um diese Herausforderungen zu bewältigen. Aktuell prüfen 134 Länder und Währungsunionen, die zusammen 98 % des weltweiten BIP ausmachen, die Einführung einer digitalen Zentralbankwährung.

    Es gibt zwei Arten von CBDC, die von Zentralbanken ausgegeben werden: „Großhandels-CBDC“ (Wholesale CBDC) und „Einzelhandels-CBDC“ (Retail-CBDC).

    Wholesale CBDC bezeichnet eine digitale Währung, die für große Finanzinstitute und institutionelle Anleger wie Geschäftsbanken und Zahlungsabwicklungsunternehmen gedacht ist. Diese Form von CBDC wird üblicherweise genutzt, um Interbanken-Transaktionen zu erleichtern oder als Abwicklungsmittel für den Großhandel zwischen Finanzinstituten zu dienen. Durch Wholesale CBDC können Zahlungs- und Abwicklungssysteme effizienter gestaltet werden, indem Transaktionen schneller, sicherer und kostengünstiger abgewickelt werden. Obwohl CBDC für Großkunden oft als neues Konzept dargestellt wird, ist digitales Zentralbankgeld für Großkundentransaktionen bereits seit Jahrzehnten verfügbar. Die Diskussion konzentriert sich daher nicht darauf, ob digitales Zentralbankgeld für Großkundentransaktionen eingeführt werden soll, sondern vielmehr auf mögliche technologische Veränderungen bei der Bereitstellung dieses Geldes.

    Im Gegensatz dazu ist Retail CBDC für den allgemeinen Gebrauch durch Einzelpersonen und Unternehmen gedacht, ähnlich wie physisches Bargeld oder digitales Geld auf einem Bankkonto. Einzelhandels-CBDC könnte es den Menschen ermöglichen, direkt mit der Zentralbank digitale Transaktionen durchzuführen, ohne die Notwendigkeit eines Bankkontos bei einer Geschäftsbank. Retail CBDC zielt darauf ab, den allgemeinen Zugang zu digitalen Zahlungsmitteln zu verbessern und die Nutzung digitaler Transaktionen durch Einzelpersonen und kleine Unternehmen zu fördern.

    In den folgenden Überlegungen werden wir uns auf den Digitalen Euro als Repräsentanten für CBDC konzentrieren.

    Im Juni 2021 kündigte die Europäische Zentralbank (EZB) den „Digitalen Euro“ an. Im Juli desselben Jahres begann die EZB die Untersuchungsphase des Projekts zum digitalen Euro. Diese Phase konzentrierte sich auf zentrale Fragen bezüglich der Gestaltung und Einführung eines möglichen digitalen Euros und beinhaltete die Entwicklung eines Prototyps. Die Untersuchungsphase erstreckte sich über etwa 24 Monate und endete im Oktober 2023. Am 18. Oktober 2023 beschloss der EZB-Rat, die Vorbereitungs- und Versuchsphase für den digitalen Euro einzuleiten. Diese Phase, die etwa drei Jahre dauern könnte, zielt darauf ab, die Grundlagen für einen möglichen digitalen Euro zu schaffen.

    Aus heutiger Sicht befinden wir uns noch mitten in diesem Prozess. Obwohl noch keine endgültigen Ergebnisse bezüglich der Gestaltung, Funktionalität und des genauen Einführungstermins des digitalen Euros vorliegen, lassen sich einige Trends deutlich erkennen.

    Es ist wichtig zu beachten, dass Wholesale CBDC und Retail CBDC, obwohl sie als eigenständige Projekte betrachtet werden können, in der Gesamtstrategie der EZB für digitale Währungen eng miteinander verbunden sind. Die technologische Architektur und Infrastruktur, die für die Wholesale-CBDC entwickelt wird, kann die Architektur des Retail-CBDC beeinflussen. Ein Verständnis der Funktionsweise der Wholesale-CBDC kann helfen, die technischen Aspekte des Retail-CBDC besser zu verstehen. Die Ziele und Funktionen einer Wholesale-CBDC können Einblicke in die Motivationen der Zentralbank geben und zeigen, wie diese mit einem Retail-CBDC zusammenhängen. Die Einführung einer Wholesale-CBDC kann das bestehende Finanzsystem erheblich beeinflussen, einschließlich Banken, Finanzmärkte und Zahlungsinfrastruktur. Ein Verständnis dieser Auswirkungen kann dazu beitragen, potenzielle Effekte auf das Retail-CBDC und die gesamte Finanzlandschaft einzuschätzen.

    4.1. Wholesale CBDC – Die Natur macht keinen Sprung (oder doch)

    Im Dezember 2020 erschien der Bericht „Geld in programmierbaren Anwendungen – Branchenübergreifende Perspektiven aus der deutschen Wirtschaft“ der Arbeitsgruppe „Programmierbares Geld“ der Deutschen Bundesbank. Zu den Initiatoren dieser Arbeitsgruppe gehörten Dr. Jens Weidmann, der damalige Präsident der Deutschen Bundesbank und Olaf Scholz, der damalige Bundesminister der Finanzen. Zu den Mitgliedern der AG „Programmierbares Geld“ gehörten neben Mitgliedern der Deutschen Bundesbank auch Vertreter der Deutsche Bank AG, Deutsche Börse AG, Landesbank Hessen-Thüringen, Landesbank Baden-Württemberg, IBM Deutschland, Siemens, VW, Bosch, SAP u.a.

    Die Arbeitsgruppe fasst die Ergebnisse ihrer Studie wie folgt zusammen:

    Die digitale Transformation lässt neue Geschäftsmodelle entstehen und ändert bestehende Geschäftsprozesse grundlegend. Viele Prozesse werden in Zukunft noch viel automatisierter erfolgen. Die Distributed Ledger Technologie, auf der reale Güter und Dienstleistungen als Token abbildbar sind und digital gehandelt werden können, ermöglicht programmierbare, autonome und automatisierte Leistungsflüsse. Dadurch werden die gegenwärtigen Zahlungssysteme vor neue Herausforderungen gestellt. Inwieweit die Vorteile der digitalen Abwicklungstechnik realisiert werden können, hängt in hohem Maße davon ab, ob die dazugehörigen Geldflüsse gleichermaßen programmierbar werden und mit den Leistungsflüssen synchronisiert werden können.

    Denkbare Geschäftsfälle, für die es innovative Lösungen zur geldseitigen Abwicklung bedarf, basieren größtenteils auf der Distributed Ledger Technologie und können Smart Contracts enthalten, die die Ausführung der Geschäftsfälle steuern. Machine-to-Machine-Zahlungen, Internet-of-Things-Zahlungen und Pay-per-Use-Zahlungen sind beispielhafte Anwendungsfälle, die programmierbare Zahlungen für die geldseitige Abwicklung erfordern.

    Um die Nachfrage nach programmierbaren Zahlungslösungen erfüllen zu können, bedarf es deshalb neuer und innovativer Lösungen.

    Der größte Funktionsnutzen bei der Abwicklung programmierbarer Zahlungen wird tokenisiertem Geschäftsbankengeld und digitalem Zentralbankgeld beigemessen. Die noch ausstehende Entwicklung beider Zahlungslösungen bietet ausreichend Gestaltungsspielraum, den Bedarf zur Umsetzung programmierbarer Zahlungen umfassend zu berücksichtigen. Beide Lösungen eignen sich insbesondere aufgrund der zu erwarteten Glaubwürdigkeit ihrer Emittenten und der Anwendung innerhalb eines verbindlichen Rechtsrahmens als vertrauenssichernde Lösung zur Abwicklung programmierbarer Zahlungen.

    Fazit:
    Die digitale Transformation revolutioniert die Arbeitsweise von Unternehmen. Viele Abläufe werden automatisiert, was bedeutet, dass sie von Maschinen eigenständig durchgeführt werden. Die Distributed Ledger Technologie (DLT) eröffnet die Möglichkeit, reale Güter wie Produkte oder Dienstleistungen als digitale Tokens abzubilden und über DLT-Netzwerke mittels Smart Contracts zu handeln. Diese Technologie ermöglicht automatisierte und programmierbare Zahlungen. Um solche Zahlungen zu ermöglichen, bedarf es einer neuen digitalen Form nicht nur für Zentralbankgeld bei Großkundentransaktionen, sondern auch für Geschäftsbankgeld. Damit diese Geldformen in DLT-Netzwerken repräsentiert und in Smart Contracts als Zahlungsmittel integriert werden können, müssen sie in tokenisierter Form vorliegen.

    In seinem Vortrag „Perspektiven für Wholesale CBDC im Euroraum“ im September 2023 unterstreicht Dr. Martin Diehl, Leiter der Abteilung „Analyse der Zahlungssysteme“ bei der Deutschen Bundesbank, erneut die Bedeutung der Zusammenführung von DLT-Systemen, tokenisierten Währungsformen und Wholesale CBDC für verschiedene Anwendungsfälle in der Realwirtschaft.

    Er betont, dass in einer Smart Economy die Ströme von Gütern, Geld und Informationen idealerweise automatisch und synchronisiert erfolgen sollten. Durch den Einsatz von DLT-Systemen können Abstimmungsprozesse durch die Nutzung einer gemeinsamen Datenbasis wegfallen. Smart Contracts können die automatisierte Abwicklung unterstützen. Der Zahlungsprozess soll als integraler Bestandteil des Gesamtprozesses fungieren.

    Abb. 38: Anwendungsfälle der Realwirtschaft, die auf DLT-Systemen abgebildet werden können

    Dieses Ziel ist mit den bestehenden Zahlungsabwicklungssystem der Europäischen Zentralbank (EZB) aufgrund von Kompatibilitätsproblemen nicht realisierbar.

    Abb. 39: Kompatibilitätsprobleme zwischen DLT-basierenden Anwendungsfällen und dem traditionellen Zahlungsabwicklungssystem der EZB

    TARGET steht für „Trans-European Automated Real-time Gross Settlement Express Transfer System“ und ist das Zahlungsabwicklungssystem der Europäischen Zentralbank (EZB). Es ist das Hauptinstrument für die Abwicklung von Euro-Zahlungen im Eurosystem, dem Rahmen, in dem die Geldpolitik für den Euroraum umgesetzt wird.
    Im Grunde genommen ist TARGET ein System, das es den Geschäftsbanken ermöglicht, untereinander Zahlungen in Echtzeit und in Euro abzuwickeln. Es dient der effizienten Abwicklung von Zahlungen zwischen den Banken im Euroraum, sowohl für ihre eigenen Transaktionen als auch für die ihrer Kunden.
    Das TARGET-System umfasst sowohl den sogenannten TARGET2-Mechanismus für die Abwicklung von Großbetragszahlungen als auch den TARGET2-Securities (T2S)-Mechanismus für die Abwicklung von Wertpapiertransaktionen.
    Für die meisten Menschen ist das TARGET-System im Alltag nicht direkt relevant, da es hauptsächlich von Banken genutzt wird. Es spielt jedoch eine entscheidende Rolle für die Stabilität und Effizienz des Finanzsystems im Euroraum, indem es einen sicheren und schnellen Mechanismus für den Austausch von Euro-Zahlungen zwischen den Banken bereitstellt.

    Die Deutsche Bundesbank prüft zwei Lösungsansätze. Eine Möglichkeit besteht darin, das Wholesale CBDC in tokenisierter Form direkt auf dem DLT-Netzwerk anzubieten, auf dem der Smart Contract ausgeführt wird.

    Im Rückblick auf die Ausführungen in Kapitel 3.3. wird daran erinnert, dass ein Token in der Welt der Blockchain eine digitale Einheit mit vielfältigen Funktionen ist. Es kann als Kryptowährung dienen, digitale Darstellungen von Fiat-Währungen auf Blockchain-Plattformen sein und für Transaktionen verwendet werden. Im Kapitel 3.6. wurde erläutert, wie ein Stablecoin als Token auf verschiedenen Blockchains unterstützt wird. In diesem Szenario verhält sich der tokenisierte Digitale Euro ähnlich einem „Stablecoin“ und wird für Transaktionen auf demselben DLT-Netzwerk verwendet, in dem der jeweilige Smart Contract ausgeführt wird. Die praktische Umsetzung dieser Lösung erscheint der Zentralbank aus heutiger Sicht jedoch äußerst anspruchsvoll.

    Die zweite Möglichkeit besteht darin, das Zentralbankgeld über eine noch zu definierende Schnittstelle sicher mit dem DLT-Netzwerk zu verknüpfen, auf dem der Smart Contract ausgeführt wird. Dieser Ansatz ähnelt der Logik, die im Kapitel 3.8.1. beschrieben wurde. Smart Contracts sind Verträge, die auf Daten basieren und von ihnen abhängig sind. Smart Contracts und Dapps, die auf einer Blockchain laufen, können direkt nur auf Daten zugreifen, die auf der Blockchain vorhanden sind. Im Blockchain-Kontext sind Oracle-Services externe Dienste oder Protokolle, die Smart Contracts mit Daten oder Informationen aus der realen Welt verbinden. Da Smart Contracts auf Blockchain-Plattformen nicht direkt auf externe Datenquellen zugreifen können, sind Oracle-Services erforderlich, um diese Lücke zu schließen. Oracle-Services fungieren als Vermittler zwischen der Blockchain und externen Datenquellen wie APIs, IoT-Geräten, traditionellen Datenbanken oder anderen Blockchain-Netzwerken. Sie sammeln und liefern Echtzeitdaten oder Ereignisse an Smart Contracts, damit diese auf Basis dieser Daten automatisch Aktionen ausführen können.

    Dieser Ansatz nutzt die vorhandene Infrastruktur des Finanzmarktes und wird von der Bundesbank als risikoarm und kurzfristig umsetzbar eingestuft. Die Finanzmarktinfrastruktur (FMI) existiert parallel zu den Distributed Ledger- oder Blockchain-Netzwerken, auf denen tokenisierte Assets im Rahmen von Smart Contracts gehandelt werden. Der Informationsaustausch zwischen dem DLT/Blockchain-Netzwerk und der FMI (z. B. Bank A / Bank B) erfolgt über eine sogenannte Trigger-Schnittstelle. Dadurch werden die Ereignisse in der Blockchain und der realen Welt miteinander synchronisiert. Diese Trigger-Schnittstelle fungiert als Oracle in Bezug auf das DLT/Blockchain-Netzwerk.

    Abb. 40: Trigger-Lösung als sichere „Oracle“-Schnittstelle zwischen der „Asset-Chain“ mit dem Smart Contract und dem Bank-Ökosystem

    Ein Trigger ist eine bestimmte Bedingung oder ein Ereignis, das eine vordefinierte Reaktion in einem Finanzprodukt oder einem Risikomanagement-System auslöst.

    Ein Asset (Vermögenswert) ist ein wirtschaftlicher Wert oder eine Ressource, die einem Unternehmen, einer Person oder einer Organisation einen Nutzen oder einen Anspruch auf zukünftigen Nutzen bietet. Assets können verschiedene Formen annehmen und werden oft in unterschiedlichen Kontexten verwendet, einschließlich Finanzen, Wirtschaft und Rechnungswesen. Hier sind einige Beispiele für verschiedene Arten von Assets, die in dem oben dargestellten Beispiel eine Rolle spielen können:

    Materielle Assets: Dies sind physische Vermögenswerte, die einen materiellen Wert haben und für die Produktion von Gütern und Dienstleistungen verwendet werden können. Beispiele hierfür sind Grundstücke, Gebäude, Maschinen, Ausrüstung, Fahrzeuge und Inventar.

    Immaterielle Assets: Diese umfassen nicht-physische, aber dennoch wertvolle Vermögensgegenstände, die auf geistigem Eigentum basieren oder andere nicht-physische Rechte repräsentieren. Beispiele hierfür sind Patente, Urheberrechte, Marken, Lizenzen, Software, Geschäftsgeheimnisse und Kundenbeziehungen.

    Natürliche Assets: Diese beziehen sich auf natürliche Ressourcen wie Land, Wasser, Luft, Mineralien, Öl, Gas und erneuerbare Energien, die einen wirtschaftlichen Wert haben und für die Produktion und den Konsum von Gütern und Dienstleistungen genutzt werden können.

    Assets spielen eine wichtige Rolle bei der Bewertung von Unternehmen, der Vermögensallokation, der Bilanzierung und der finanziellen Planung. Sie sind entscheidend für die Wertschöpfung und den Erfolg von Organisationen und dienen als Grundlage für Investitionen, Kreditvergabe und Risikomanagement.

    Die Devise der Deutschen Bundesbank lautet: „Natura non facit saltum“. Das bedeutet wörtlich übersetzt „Die Natur macht keinen Sprung“. Diese Phrase stammt aus der Biologie und bezieht sich auf die Vorstellung, dass Veränderungen in der Natur allmählich und schrittweise erfolgen, anstatt plötzlich und sprunghaft. Es betont die Idee der Kontinuität und allmählichen Entwicklung in natürlichen Prozessen und Systemen.

    Diese Logik spiegelt sich nur teilweise in dem EZB-Beitrag „Zentralbankgeldabwicklung von Großhandelstransaktionen angesichts technologischer Innovationen“ vom August 2023 wider. Dort kann man Folgendes lesen:

    Das Eurosystem analysiert die potenziellen Auswirkungen neuer Technologien, einschließlich der Distributed-Ledger-Technologie (DLT), auf die Abwicklung von Großkunden-Finanztransaktionen. 

    Die Mehrheit der vom Eurosystem befragten Marktteilnehmer rechnet mit einer signifikanten Einführung der DLT im Großkundenzahlungsverkehr und in der Wertpapierabwicklung, wobei ein Zeithorizont von fünf bis zehn Jahren angegeben wird.

    Viele Marktteilnehmer geben an, dass sie in Ermangelung einer DLT-kompatiblen Zentralbankgeld-Abwicklungslösung nach Alternativen suchen würden. In einer solchen Situation könnten die Marktteilnehmer die Verwendung alternativer Abwicklungsmittel in Betracht ziehen, z. B. Geschäftsbankgeld oder Stablecoins. Solche Alternativen würden nicht das gleiche Maß an Sicherheit bieten wie Zentralbankgeld. Ein teilweiser Umstieg von Zentralbankgeld auf andere Abwicklungsmittel könnte auch die Liquiditätsfragmentierung verstärken und sich negativ auf die Finanzstabilität auswirken.

    Gleichzeitig argumentieren einige Marktteilnehmer, dass die Geschwindigkeit der DLT-Einführung, wenn nicht gar ihr Erfolg, bis zu einem gewissen Grad von der Beteiligung der Zentralbanken abhängen könnte. Die Möglichkeit, Transaktionen in Zentralbankgeld abzuwickeln, könnte für bestimmte Marktteilnehmer eine Voraussetzung sein, die sie von der Einführung der DLT abhält, solange es keine geeignete Lösung für die Abwicklung in Zentralbankgeld gibt. Darüber hinaus könnte die Beteiligung der Zentralbanken als Unterstützung für DLT als Innovation im Bereich der Finanzdienstleistungen wahrgenommen werden.

    Sollte sich die Nutzung von DLTs für Großkunden-Finanztransaktionen durchsetzen, könnte das Eurosystem unter anderem reagieren, indem es den DLT-Plattformen des Marktes eine reibungslose Interaktion mit den auf der bestehenden Technologie basierenden Infrastrukturen des Eurosystems ermöglicht oder Zentralbankgeld in einer neuen Form zur Verfügung stellt, die auf einer DLT-Plattform erfasst und übertragen werden kann. Diese Antworten schließen sich nicht gegenseitig aus.

    Diese neuen Lösungen können, müssen aber nicht, die Bereitstellung von Zentralbankgeld in Form von DLT-Tokens beinhalten.

    Die Bereitstellung einer neuen Lösung des Eurosystems für die Abwicklung von DLT-basierten Transaktionen in Zentralbankgeld darf nicht zu Lasten der Kontrolle des Eurosystems über das von ihm ausgegebene Zentralbankgeld gehen.

    Die EZB hat mit der Analyse und Erprobung von vier konzeptionellen Lösungsvorschlägen begonnen.

    Abb. 41: Konzeptionelle Lösungen für die Abwicklung von Zentralbankgeld für Großhandelstransaktionen, die auf DLT-Plattformen registriert sind. [EUROPEAN CENTRAL BANK]
    Hinweise: Blaue Linien, Punkte und Symbole stehen für Zentralbankgeld (CeBM). Violette Linien, Punkte und Symbole stehen für Wertpapiere.

    Die erste Möglichkeit (1) nutzt die bestehende Finanzmarktinfrastruktur (siehe Abb. 41). Die zweite Option (2) setzt auf ein separates Distributed Ledger Technology (DLT)-Netzwerk, das mit tokenisiertem Zentralbankgeld arbeitet und über eine „Oracle“-Schnittstelle mit dem externen DLT-Netzwerk verbunden ist, auf dem der Smart Contract ausgeführt wird. Die Optionen (3) und (4) setzen auf einen „einheitlichen“ Ledger, bei dem CBDC- und Wertpapier-Token direkt mit dem Smart Contract verbunden sind. Der Unterschied zwischen den Optionen liegt darin, wer das DLT-Netzwerk betreibt.

    Im Vergleich zur Deutschen Bundesbank geht die Europäische Zentralbank (EZB) offensiver mit der Evaluierung von möglichen Lösungen um.

    Fazit:
    In den kommenden 10 Jahren wird der Einsatz und die Nutzung von DLT-Plattformen sowohl in der Wirtschaft als auch im Finanzsektor signifikant an Bedeutung gewinnen. CBDC wird zunehmend als Bestandteil von Smart Contracts integriert, die auf DLT-Plattformen laufen. Kurz- bis mittelfristig wird diese Integration über eine „Oracle-ähnliche“ Schnittstelle zwischen der bestehenden Finanzmarktinfrastruktur der Zentralbanken und externen DLT-Plattformen erfolgen (Trigger-Lösung). Mittel- bis langfristig kann die Europäische Zentralbank (EZB) zusätzlich eine eigene DLT-Plattform einführen und ein Zentralbankgeld- (Digital Euro-) Token zur Verfügung stellen, um die Anbindung an Smart Contracts zu ermöglichen.

    An dieser Stelle wird darauf hingewiesen, dass die DLT-Plattformen, die in der Realwirtschaft und in dem Finanzsektor zum Einsatz kommen, nicht mit den Blockchain-Plattformen aus dem Kryptowährung-Ökosystem identisch sind.  Es handelt sich in erster Linie um „permissioned“ oder „zentralisierteDLT-Systeme sind. In dieser Art von DLT/Blockchain sind die Teilnehmer oder Knoten, die das Netzwerk betreiben und Transaktionen validieren, nicht für jeden offen, sondern werden durch bestimmte Berechtigungen kontrolliert.

    Im Gegensatz zur „permissionless“ oder „dezentralisierten“ Blockchain, wie sie zum Beispiel bei Bitcoin oder Ethereum verwendet wird, bei der jeder ohne Einschränkungen am Netzwerk teilnehmen kann, erfordert eine permissioned oder zentralisierte Blockchain eine Genehmigung oder Erlaubnis, um Knoten im Netzwerk zu betreiben und Transaktionen zu validieren.

    In einem permissioned Blockchain-Netzwerk können die Berechtigungen je nach den Anforderungen und Vereinbarungen der Teilnehmer variieren. Zum Beispiel kann ein Unternehmen oder eine Organisation ein permissioned Blockchain-Netzwerk einrichten, bei dem nur ausgewählte Parteien Zugang haben, um Transaktionen durchzuführen und Blöcke zu validieren. Diese Art von Blockchain wird oft in privaten oder unternehmensinternen Anwendungen verwendet, wo Datenschutz und Kontrolle über das Netzwerk wichtig sind.

    In diesem Fall liegt der Schwerpunkt primär auf der Effizienzsteigerung und Aufwandreduzierung insbesondere bei Interbank-Transaktionen, Wertpapierabwicklung und grenzüberschreitenden Transaktionen sowie der Verbesserung der Transparenz und Kontrolle der Aktionen der autorisierten Teilnehmer. Es geht weniger um ein hohes Maß an Offenheit oder echte Dezentralisierung.

    4.2. Commercial Bank Money Token (CBMT) – Wer nicht mit der Zeit geht, geht mit der Zeit

    Im Zuge der Einführung von tokenisiertem Wholesale CBDC im bestehenden Fiat-Bankensystem wird es voraussichtlich auch zu Veränderungen im Geschäftsbankgeld kommen. Einerseits wird von den Geschäftsbanken erwartet, dass sie sicherstellen, dass Geschäftsbankgeld jederzeit in Zentralbankgeld im Verhältnis 1:1 umgewandelt werden kann. Andererseits wird die Zahl der traditionellen Unternehmenskunden, die sich einer digitalen Transformation unterziehen und Teil der neuen „Smart Economy“ werden, voraussichtlich zunehmen.

    Der Begriff Smart Economy bezieht sich auf eine Wirtschaft, die durch den Einsatz von modernen Informations- und Kommunikationstechnologien (IKT) sowie innovativen Technologien wie Blockchain, künstlicher Intelligenz (KI) und dem Internet der Dinge (IoT) unterstützt wird. Diese Technologien werden genutzt, um Prozesse effizienter, transparenter, sicherer und interoperabler zu gestalten.
    In einer „Smart Economy“ nutzen Unternehmen und Regierungen digitale Technologien, um die Effizienz und Produktivität zu steigern, innovative Dienstleistungen anzubieten und neue Geschäftsmodelle zu entwickeln. Dies kann beispielsweise den Einsatz von Big Data-Analyse, Cloud-Computing, Internet of Things (IoT) und maschinellem Lernen umfassen, um intelligente Lösungen für verschiedene Branchen wie Gesundheitswesen, Bildung, Transport, Energie und Finanzen zu schaffen.
    Kurz gesagt, die „Smart Economy“ bezieht sich auf eine Wirtschaft, die sich durch die intelligente Nutzung von digitalen Technologien und Daten auszeichnet, um das Wachstum, die Innovation und die Lebensqualität zu fördern.

    Um den neuen Anforderungen gerecht zu werden, muss sich das vorhandene Geschäftsbankengeld den Technologien der Industrie 4.0 anpassen. Dadurch kann es ein integraler Bestandteil der Wertschöpfungsketten der Industrie werden und das Potenzial der Technologie im Bankensektor nutzen. Diese neue technologische Darstellung von Geschäftsbankengeld wird „Commercial Bank Money Token“ (CBMT) genannt. Ein CBMT repräsentiert nach wie vor Geschäftsbankgeld mit all seinen Merkmalen und Dienstleistungen, die von den Banken angeboten werden. Es kann jedoch auch neue und zusätzliche Funktionalitäten ermöglichen, die Distributed-Ledger-Technologie (DLT) nutzt.

    Der Ausschuss der Deutschen Kreditwirtschaft hat in seinem „Arbeitspapier zum Commercial Bank Money Token“ vom März 2023 die Notwendigkeit der Einführung von Geschäftsbankgeld-Tokens (CBMT) bestätigt und einen Entwurf für die Gestaltung und Einführung von CBMTs vorgestellt.

    Das Ziel der Geschäftsbanken ist es, ihren Kunden (Unternehmen und Privatpersonen) Finanzdienstleistungen anzubieten, die auf Smart Contracts basieren. Die Grundidee besteht darin, dass Kunden der Geschäftsbanken einen Teil ihrer elektronischen Kontoguthaben in tokenisierter Form umwandeln können, um damit Zahlungstransaktionen im Rahmen von Smart Contracts durchzuführen. Der Transfer von Guthaben zwischen der traditionellen elektronischen Form und der tokenisierten Form soll transparent und im Verhältnis 1:1 erfolgen. Eine detaillierte Beschreibung zu diesem Thema findet man in dem oben genannten Arbeitspapier.

    In Ihrem Positionspapier „Der digitale Euro: Hintergrundinformationen und Bewertung der jüngsten Diskussionen. Überprüfung der EZB-Grundsätze für einen digitalen Euro und ihre Auswirkungen auf unser duales Währungssystem“ vom Juni 2023 fasst der Ausschuss der Deutschen Kreditwirtschaft die Geldarten in dem Geldsystem der Zukunft wie folgt zusammen:

    Abb. 42: Neue und bestehende Geldarten für ein Geldsystem der Zukunft

    In dem neuen Geldsystem erhalten alle heute verfügbaren Geldformen des Fiatsystems einen digitalen Zwilling. Dies ist im Einklang mit den Vorstellungen der Bank für Internationalen Zahlungsausgleich (BIS).

    Blaupause für das künftige Geldsystem:
    Altes verbessern, Neues ermöglichen

    Die Bank for International Settlements (BIS) wird oft als „Bank der Zentralbanken“ bezeichnet. Wenn man die Rolle der BIS metaphorisch beschreiben möchte, könnte man sie als eine Art zentralen Koordinator für alle Zentralbanken betrachten. Daher ist es sinnvoll, sich genauer mit den Vorstellungen der BIS über das zukünftige Geldsystem auseinanderzusetzen. Diese kurze Videobotschaft vom Juni 2023 beschreibt die BIS-Vision zu diesem Thema sehr deutlich.

    Das Ziel der BIS ist die Etablierung eines Unified Ledger (Einheitliches Hauptbuch). Ein einheitlicher Ledger bezieht sich auf eine einzige Datenbank oder Buchführung, die von einer zentralen Autorität verwaltet wird und von verschiedenen Parteien gemeinsam genutzt werden kann. Bei dem Unified Ledger soll es sich um eine programmierbare Plattform handeln, auf der Geld und Vermögenswerte digital als Token dargestellt werden. Ein einheitlicher Ledger mit CBDCs kann laut BIS die Verknüpfung verschiedener Elemente des Finanzsystems erleichtern, indem Zentralbankgeld am selben Ort wie andere tokenisierte Forderungen gespeichert werden. Damit können komplexe Transaktionen mit dem tokenisierten Geld und den tokenisierten Vermögenswerten automatisiert werden ohne die Notwendigkeit, einzelne Schritte separat zwischen verschiedenen Datenbanken abgleichen zu müssen, da alle notwendigen Elemente in einer einheitlichen Datenbank liegen.

    Abb. 43: Die BIS-Vision von der Einheitlichkeit des zukünftigen Finanzsystems [BIS]

    Diese Vision spiegelt sich in den EZB-Lösungsvorschlägen – Option (3) und Option (4) wider (siehe Abb. 41).

    Ein Token in der BIS-Welt besteht aus zwei grundlegenden Schichten: Informationen über den „Asset“ (z. B.  eindeutige Identifizierung, Eigentümer, Verwahrstelle, Herkunft, Wert, etc.) und Regeln (was der Vermögenswert tun kann und was nicht, z. B. zur Verwendung in Smart Contracts).

    Abb. 44: Die Token-Definition nach BIS [BIS]

    Der Begriff „Vermögenswert“, auch als „Asset“ bekannt, wurde bereits im Zusammenhang mit Abb. 40 erklärt. Zusätzlich zu den dort aufgeführten Asset-Formen kommen in der Definition von BIS die finanziellen Assets hinzu.

    Finanzielle Assets: Diese umfassen Vermögenswerte, die einen monetären Wert haben und auf den Finanzmärkten gehandelt werden können. Beispiele hierfür sind Bargeld, Bankguthaben, Aktien, Anleihen, Investmentfonds, Derivate und andere Finanzinstrumente.

    Der Prozess der Tokenisierung solcher Vermögenswerte wird durch sogenannte Rampen durchgeführt. Diese Rampen definieren eine Verbindung zwischen Vermögenswerten in herkömmlichen Datenbanken und ihren digitalen Versionen (siehe Abb. 45). Die Vermögenswerte in der herkömmlichen Datenbank werden „gesperrt“ und dienen als Sicherheit für die digitalen Tokens, die auf der programmierbaren Plattform ausgegeben werden. Dadurch wird sichergestellt, dass die Übertragung der digitalen Tokens auch die Übertragung der echten Vermögenswerte garantiert. Wenn Sie also einen Token besitzen, gehört Ihnen auch das reale Vermögen, das er darstellt.

    Abb. 45: Der Prozess der Tokenisierung von Assets [BIS]

    Aus Sicht der Bank for International Settlements (BIS) besteht das einheitliche Ledger aus zwei Hauptbereichen: der Datenumgebung und der Ausführungsumgebung. In diesen Bereichen gelten spezifische Regeln, Standards und Governance. Die Datenumgebung beherbergt Geld, Vermögenswerte und Informationen, die entweder intern oder extern zum Ledger sind. Jedes dieser Elemente ist in Partitionen unterteilt, die den Besitz oder Zugriff regeln. Die Ausführungsumgebung führt Operationen aus, die diese Elemente betreffen, entweder direkt durch Nutzer oder durch intelligente Verträge (Abb. 46).

    Abb. 46: Das einheitliche Hauptbuch (Unified Ledger) nach den Vorstellungen von BIS. (Das Vorhängeschloss zeigt an, dass einige Operationen vertrauliche verschlüsselte Daten betreffen können.) [BIS]

    Der Begriff „Governance“ bezieht sich auf die Art und Weise, wie Organisationen oder Systeme gelenkt, geleitet und kontrolliert werden. Es umfasst die festgelegten Regeln, Verfahren, Richtlinien und Mechanismen, die sicherstellen sollen, dass eine Organisation oder ein System effektiv, transparent, verantwortungsvoll und im besten Interesse aller Beteiligten agiert.

    In einem breiteren Kontext kann Governance auch die Art und Weise beschreiben, wie Entscheidungen getroffen, Ressourcen verwaltet und Verantwortlichkeiten zugewiesen werden. Dies kann sich auf verschiedene Ebenen erstrecken, einschließlich Regierungsführung auf nationaler oder internationaler Ebene, Unternehmensführung in Unternehmen oder Organisationen, und Selbstverwaltung in Gemeinschaften oder Gruppen.

    Eine gute Governance beinhaltet oft Merkmale wie Rechenschaftspflicht, Transparenz, Partizipation, Integrität und Effizienz. Es geht darum, sicherzustellen, dass Entscheidungen fair und im Einklang mit den Zielen und Werten der Organisation getroffen werden und dass die Interessen aller Stakeholder angemessen berücksichtigt werden. In Unternehmen kann eine starke Governance die Vertrauenswürdigkeit erhöhen, das Risiko von Fehlverhalten reduzieren und das langfristige Wachstum und die Nachhaltigkeit fördern.

    Eine wichtige Frage bezieht sich auf die Bandbreite des Hauptbuchs. Laut der Bank for International Settlements (BIS) schließt das Konzept eines einheitlichen Hauptbuchs nicht aus, dass es separate Hauptbücher für unterschiedliche Anwendungsfälle gibt. Die BIS geht jedoch davon aus, dass es in der Praxis zunächst wahrscheinlich auf spezifische Anwendungen angewendet wird, wo die unmittelbaren Vorteile am deutlichsten sind. Beispielsweise könnte ein Hauptbuch darauf abzielen, die Abwicklung von Wertpapieren zu verbessern und nur relevante Parteien einzubeziehen, während ein anderes sich auf Handelsfinanzierungen konzentrieren könnte, z. B. in der Schifffahrtsbranche. Im Laufe der Zeit könnte sich der Anwendungsbereich des Hauptbuchs durch die Einbeziehung weiterer Vermögenswerte und Unternehmen ausweiten. Letztendlich wird die Ausdehnung des Hauptbuchs durch die spezifischen Bedürfnisse und Einschränkungen einzelner Länder beeinflusst.

    Natura non facit saltum – Die Natur macht keinen Sprung. Die Natur ist jedoch ständig im Wandel.

    Die voranschreitende globale Vernetzung durch Technologien wie 5G, 6G und das Internet der Dinge (IoT), zusammen mit der Einführung immer leistungsfähigerer Technologien, die zunehmend auf KI-Algorithmen basieren, verändert allmählich verschiedene Aspekte unseres Lebens. Die Devise „schneller, weiter, höher“ treibt diesen Wandel voran und führt zu einer Transformation der Wirtschaft in eine „Smart Economy“, der Städte in „Smart Cities“, der Immobilien in „Smart Buildings/Homes“ und der Autos in „Smart Cars“. Diese umfassende „Smartness“ ermöglicht es, immer mehr Vermögenswerte in die Datenumgebung eines einheitlichen Ledgers einzubeziehen und bei Bedarf entsprechende Governance-Mechanismen anzuwenden.

    Zwischen dem Konzept des „Unified Ledgers“ der BIS und der Ethereum-Welt (Kapitel 3.8.) lassen sich einige Parallelen erkennen. In beiden Fällen interagieren Benutzer in einer programmierbaren Umgebung mit Smart Contracts, um Transaktionen mit Tokens auszuführen, die die vordefinierten Bedingungen erfüllen. Wenn diese Bedingungen erfüllt sind, führt der Smart Contract automatisch die entsprechenden Aktionen in der Ethereum-Blockchain aus.

    Während Ethereum den Grundsatz „Code is Law“ betont, spricht die BIS von Governance. Die Ethereum Foundation bezeichnet Ethereum als Protokoll für menschliche Koordination. Das einheitliche Hauptbuch wird als perfekte Grundlage für nahtlose Operationen mit Vermögenswerten propagiert.

    Die Interaktion des Unified Ledgers mit externen Informationen erinnert weiterhin an den Ansatz von Chainlink (Kapitel 3.8.1.). Ein wesentlicher Unterschied besteht jedoch darin, dass es sich bei BIS, EZB und ähnlichen Institutionen um zentralisierte permissioned Architekturen handelt, was bestimmte Risiken mit sich bringt.

    Fazit:
    Die Tokenisierung wird nicht nur das Großhandels-CBDC umfassen, sondern auch Geschäftsbankgeld einbeziehen. Dadurch wird das Thema nicht nur große Finanzinstitutionen, sondern auch die breite Öffentlichkeit betreffen. Es ist wahrscheinlich, dass dies zunächst in Business-to-Business (B2B) Transaktionen angewendet wird und dann nahtlos das Business-to-Customer (B2C) Umfeld erreicht.

    Der Begriff Business-to-Business (B2B) bezieht sich auf Transaktionen, die zwischen zwei Unternehmen stattfinden. Zum Beispiel, wenn ein Unternehmen Computerhardware von einem anderen Unternehmen kauft, wäre das eine B2B-Transaktion.

    Der Begriff Business-to-Consumer (B2C) bezeichnet Transaktionen, bei denen ein Unternehmen direkt Produkte oder Dienstleistungen an Verbraucher verkauft. Zum Beispiel, wenn Sie ein Paar Schuhe online von einem Einzelhändler kaufen, ist das eine B2C-Transaktion.

    In einfachen Worten ausgedrückt: B2B sind Geschäfte zwischen Unternehmen, während B2C Geschäfte zwischen einem Unternehmen und einem Verbraucher sind.

    In dem Dokument „Blueprint for the future monetary system: improving the old, enabling the new“ äußert sich die BIS zum Thema Retail-CBDS wie folgt:

    Zu den verbesserten digitalen Darstellungen von Zentralbankgeld könnte eine Einzelhandelsvariante gehören, die von normalen Nutzern verwendet werden kann. Ein CBDC für Privatkunden ist eine digitale Version des physischen Bargelds, die von Haushalten und Unternehmen für alltägliche Transaktionen verwendet werden kann. Indem die Zentralbank der Öffentlichkeit eine einfache Möglichkeit bietet, alternative private digitale Währungen (wie z. B. digitale Einlagen bei Geschäftsbanken) in digitales Bargeld umzuwandeln, d.h. eine direkte Verbindung zur staatlichen Rechnungseinheit in digitaler Form, würde sie die Einheitlichkeit weiter fördern.

    4.3. Retail-CBDC – Heaven Is a Place on Earth

    Obwohl das Retail-CBDC nur einen Teil des zukünftigen tokenisierten Finanzsystems darstellt, steht es im Mittelpunkt der Aufmerksamkeit und ist Gegenstand kontroverser Diskussionen. Verbraucher befürchten das Verschwinden von Bargeld, während Banken um ihre Geschäftsmodelle und letztlich die Finanzierung der Realwirtschaft besorgt sind.

    Heutzutage nutzen die meisten Menschen Bargeld und digitales Geschäftsbankgeld, auch bekannt als Giralgeld, für den Austausch von Waren und Dienstleistungen. Sie sind mit diesen beiden Geldformen bestens vertraut. Es wird nicht leicht sein, ihr Verhalten und ihre Gewohnheiten im Umgang mit Geld zu ändern.

    Für den Erfolg des CBDC ist breite öffentliche Unterstützung unerlässlich. Verbraucher und Händler werden letztendlich die Endnutzer sein. Das CBDC wird sich nicht durchsetzen, wenn sie nicht von seinen Vorteilen überzeugt sind. Die Aufklärung der Öffentlichkeit über die Vor- und Nachteile des CBDC wird entscheidend sein, um alle Beteiligten einzubeziehen.

    Obwohl die Vorbereitungs- und Versuchsphase der Europäischen Zentralbank (EZB) erst in den kommenden Jahren abgeschlossen wird, läuft die Werbekampagne langsam auf Hochtouren. Einige der Argumente, mit denen die EZB die Öffentlichkeit vom digitalen Euro überzeugen will, sind in dem Werbefilm „The Digital Euro – Easy, Safe, Fast, Reliable“ zusammengefasst:

    Bargeld, Geschäftsbankgeld und der digitale Euro (nach seiner Einführung) erfüllen als gesetzliche Zahlungsmittel die grundlegenden Funktionen des Geldes: Sie dienen als Mittel zur Wertaufbewahrung, zum Tausch und als Rechnungseinheit. Damit diese Zahlungsmittel von einer breiten Bevölkerung akzeptiert werden, müssen sie zusätzlich wichtige Eigenschaften wie Privatsphäre, Zugänglichkeit, Sicherheit, Bequemlichkeit, Benutzerfreundlichkeit und Kosteneffizienz bieten. Es ist wichtig zu bedenken, dass das Vertrauen in die Stabilität des Geldes von entscheidender Bedeutung ist. Dieses Vertrauen kann jedoch schnell schwinden, insbesondere in Zeiten wirtschaftlicher oder politischer Instabilität.

    Der Erfolg des digitalen Euro als Retail-CBDC hängt davon ab, wie er sich in Bezug auf Bargeld und Geschäftsbankgeld positioniert und dabei die oben genannten zusätzlichen Eigenschaften berücksichtigt. Im Folgenden werden die drei Geldformen unter diesem Gesichtspunkt verglichen, wobei wir zunächst mit dem aktuellen Status Quo beginnen.

    Physisches Bargeld vs. Digitales Privatbankgeld
    – ein Vergleich aus der Sicht des Endverbrauchers –
    Fasse niemals ein laufendes System an. – Never touch a running system.“

    Datenschutz/Privatheit

    Digitales Geld und die damit verbundenen Transaktionen hinterlassen digitale Spuren. Relevante Informationen werden von den entsprechenden Banken, Kreditkartenunternehmen und privaten Betreibern von Zahlungssystemen erfasst. Behörden haben ebenfalls leichten Zugang zu diesen Daten, insbesondere wenn sie Verdachtsfälle von Steuerhinterziehung, Geldwäsche, Terrorismusfinanzierung oder anderen illegalen Aktivitäten gemäß den geltenden Gesetzen verfolgen. Daher ist es nicht möglich, denselben Grad an Anonymität wie bei Bargeld zu erreichen.

    Auf der anderen Seite wird die Verwendung von Bargeld für finanzielle Transaktionen in vielen Ländern zunehmend durch gesetzliche Vorschriften eingeschränkt. Gemäß der aktuellen EU-Regelung sind Bargeldzahlungen nur noch bis zu einem Betrag von 10.000 Euro erlaubt. Für Bargeldtransaktionen zwischen 3.000 und 10.000 Euro erfordert die neue Regelung einen Identitätsnachweis sowie einen Nachweis über die Herkunft des Geldes. Diese Daten müssen von Händlern und Institutionen erfasst und gespeichert werden.

    In normalen Zeiten haben viele Menschen kein Problem damit, ihre Privatsphäre aufzugeben, um Verbrechen und Terrorismus zu bekämpfen. Doch erinnern wir uns an die Ereignisse in Hongkong im Jahr 2019, als politische Demonstranten Schlange standen, um ihre U-Bahn-Fahrscheine bar zu bezahlen. Die Demonstranten äußerten ihre Bedenken, dass ihre Kartendaten zurückverfolgt und als Beweismittel gegen sie verwendet werden könnten, sollten sie von der Polizei angeklagt werden – ähnlich wie es gegen führende Vertreter der pro-demokratischen Regenschirmbewegung im Jahr 2014 geschah. Das zeigt, dass Menschen in autoritären Regimen plötzlich die Bedeutung des Bargelds erkennen können.

    Zugänglichkeit

    Bargeld ist äußerst einfach zu bekommen. Um es zu haben, müssen Sie nur jemanden finden, der es Ihnen gibt.

    Wenn Sie jedoch auf digitales Geld zugreifen möchten, benötigen Sie eine Bankkarte. Dafür müssen Sie die Bank davon überzeugen, dass Sie die Person sind, für die Sie sich ausgeben, indem Sie Ihren Ausweis vorlegen und versichern, dass Sie die Karte nicht für illegale Zwecke verwenden werden. Für die meisten von Ihnen mag das keine Probleme bereiten, aber Forschungsdaten zeigen, dass im Jahr 2021 etwa 4% der Bevölkerung in der EU immer noch kein Bankkonto besaßen. In Schwellen- und Entwicklungsländern ist dieser Prozentsatz deutlich höher.

    Besonders beunruhigend ist, dass es eine Reihe von Fällen gab, in denen Menschen ihr Bankkonto verloren haben. Ein Beispiel dafür ist das Vereinigte Königreich, wo der umstrittene Politiker Nigel Farage vorübergehend sein Bankkonto verlor, weil seine „Werte“ nicht mit denen der Bank übereinstimmten. In Kanada wurden private Banken von der Regierung dazu gedrängt, die Konten von Lastwagenfahrern einzufrieren, die gegen die Covid-19-Impfung protestierten.

    Obwohl Bankkonten für die meisten zugänglich sind, bleiben sie für viele Menschen unerreichbar, und es besteht die reale Gefahr, unter bestimmten Umständen den Zugang zu ihnen zu verlieren.

    Sicherheit

    In Bezug auf Sicherheit herrscht ein Gleichstand.

    Einerseits birgt das Mitführen von viel Bargeld das Risiko von Diebstahl oder Verlust. Andererseits ist auch Bankbetrug eine potenzielle Bedrohung.

    Wenn jedoch eine Finanzkrise eintritt, erkennen die Menschen oft erneut, dass digitales Privatbankgeld letztlich nur ein Versprechen darstellt, physisches Zentralbankgeld zu bezahlen.

    Bargeld wird direkt von der Zentralbank ausgegeben und ist physisch vorhanden. Es wird durch die Autorität der Zentralbank gedeckt. Das Vertrauen der Öffentlichkeit in die Zentralbank und die Stabilität der Währung spielen eine wichtige Rolle bei der Deckung von Bargeld. Wenn die Zentralbank als vertrauenswürdig gilt und die Währung stabil ist, wird das Bargeld automatisch akzeptiert und erhält einen inneren Wert.

    Die Sicherheit von privatem Digitalgeld hängt stark von der finanziellen Stabilität der Geschäftsbanken ab. Wie im Kapitel 2.2.1. beschrieben, leihen die Banken einen Großteil ihrer Kunden-Einlagen an andere Kunden aus und behalten nur einen Teil davon für mögliche Abhebungen vor (Mindestreserve). Um einen Großteil dieser Einlagen im Falle eines Bankausfalls zu schützen, zahlen die Banken in einen Sicherungsfonds ein, der auch als Einlagensicherungssystem bekannt ist. Nach der Finanzkrise 2007-2008 wurden auf EU-Ebene lediglich bestimmte Mindeststandards festgelegt, wie beispielsweise der Schutz von Einlagen in Höhe von 100.000 € pro Bankkunden.

    In Krisenzeiten kann Bargeld als sichere Notfallreserve dienen, während das private Digitalgeld von der Liquidität der Banken abhängt.

    Bequemlichkeit

    Die Digitalisierung hat die Zahlungsabwicklung revolutioniert und wird dies auch in Zukunft tun. Heutige Zahlungsmethoden unterscheiden sich erheblich von denen vor einem Jahrzehnt. Mit nur einem Gerät oder einer App können Sie jetzt Einkäufe über Ihre Uhr tätigen und gleichzeitig eine Anwendung nutzen, um die Kosten für ein Abendessen mit Ihrem Date zu teilen – und das noch bevor Sie den Tisch verlassen haben. Es ist nicht mehr notwendig, Geld zu zählen oder sich Gedanken über das Wechselgeld zu machen. Eine sperrige Brieftasche mitzuführen oder regelmäßig zum Geldautomaten zu gehen, entfällt ebenfalls. Als Händler erleichtert Ihnen die Annahme digitaler Zahlungen die Verwaltung erheblich und erspart Ihnen den Weg zur Bank, um Bargeldeinnahmen einzuzahlen.

    Die Implementierung sozialer Distanzierung, Lockdowns und die Angst vor einer potenziellen Virusübertragung über physisches Bargeld während der Pandemie haben digitale Transaktionen und Zahlungen weiter vorangetrieben. Die Pandemie hat den Prozess der Digitalisierung in allen Branchen weltweit beschleunigt, was wiederum die Verbreitung bargeldloser Zahlungen gefördert hat. Diese Entwicklung hat die Akzeptanz elektronischer Zahlungen bei Händlern erhöht, um den elektronischen Handel und den kontaktlosen Austausch zu erleichtern.

    Im Jahr 2021 betrug der Anteil physischer Bargeldtransaktionen weltweit 18 % an den POS-Transaktionen und wird voraussichtlich bis 2025 auf 10 % sinken. Regionsweise verteilt lag der Bargeldanteil im Jahr 2021 im Nahen Osten und Afrika (MEA) bei 44 %, in Lateinamerika bei 36 %, in Europa bei 26 %, im asiatisch-pazifischen Raum bei 16 % und in Nordamerika bei 11 %. Ein Rückgang der Bargeldnutzung wird bis 2025 in allen Regionen erwartet, beispielsweise auf 31 % in MEA, 24 % in Lateinamerika, 17 % in Europa, 8 % im asiatisch-pazifischen Raum und 6 % in Nordamerika. (Abb. 47).

    POS steht für „Point of Sale“, was auf Deutsch „Verkaufsstelle“ bedeutet. Eine POS-Transaktion bezieht sich auf eine finanzielle Transaktion, die an einem physischen Verkaufspunkt stattfindet, wie zum Beispiel an der Kasse eines Ladens oder an einem Verkaufsstand.

    Abb. 47: Anteil am Mix der POS-Zahlungsarten in % (2022 – 2025) [CBDC: Context, challenges, and conditions for a successful adoption, S.20]

    Benutzerfreundlichkeit / e-Commerce

    Der Online-Handel boomt, und das nicht erst seit dem Beginn der Corona-Pandemie. Im Jahr 2023 gaben drei Viertel (75 %) der 16- bis 74-Jährigen in der EU an, bereits online eingekauft zu haben. Besonders verbreitet waren Online-Käufe in den Niederlanden (95 %), Dänemark (94 %) und Schweden (91 %). Deutschland belegte mit 82 % im EU-Ranking den achten Platz.

    Um von den Vorteilen des Online-Handels profitieren zu können, haben Verbraucher eine Vielzahl von Zahlungsmethoden zur Auswahl. Die gängigen Zahlungsmethoden für den E-Commerce sind in der Abbildung dargestellt.

    Abb. 48: Gängige Zahlungsmöglichkeiten im Online-Handel [verbraucherschutz.com]

    Mit dem Aufstieg des E-Commerce wird es für das Bargeld immer schwieriger, da es praktisch unmöglich ist, Bargeld für Online-Käufe zu verwenden.

    Kosten

    Als Verbraucher mag Ihnen dieser Aspekt möglicherweise unwichtig erscheinen, da sowohl digitale Zahlungen als auch Bargeldtransaktionen auf den ersten Blick kostenfrei erscheinen. Jedoch ist die Verwendung von Bargeld mit Kosten und ineffizienten Aspekten innerhalb einer Volkswirtschaft verbunden. Dies umfasst die Notwendigkeit einer sorgfältigen Handhabung und Verwaltung, den sicheren Transport, Sicherheitsvorkehrungen sowie die Bereitstellung von Geräten oder Personal zum Zählen des Geldes. Zudem erfordert es kontinuierliche Investitionen in Sicherheitsmaßnahmen, um sich vor Fälschungen zu schützen, was wiederum zu zusätzlichen Kosten führt.

    Im Gegensatz dazu zahlt ein Händler bei jeder Kartenzahlung durch einen Kunden eine geringe Gebühr an Banken und Kartenunternehmen, die er in die Preisgestaltung seiner Produkte oder Dienstleistungen einberechnet.

    Nach dem Vergleich der beiden traditionellen Geldformen ergibt sich folgendes Fazit:

    Zusammenfassend lässt sich feststellen, dass beide traditionelle Geldformen ihre Vor- und Nachteile haben und keine davon perfekt ist.

    Retail-CBDC Vorteile und potentielle Gefahren

    Um die Sorgen der Bevölkerung in Bezug auf die Einführung von CBDC zu lindern und die Akzeptanz dieser neuen Form des Geldes zu fördern, ist es von entscheidender Bedeutung, sowohl die Vorteile als auch die möglichen Risiken öffentlich zu erörtern. Wie könnte eine solche Diskussion aus der Perspektive der Befürworter von CBDC gestaltet werden?

    Privatheit/Datenschutz

    Digitale Transaktionen hinterlassen im Gegensatz zu physischen Transaktionen mit Geldscheinen und Münzen digitale Fußabdrücke, die rückverfolgbar und unauslöschlich sind. Eine Eigenschaft von physischem Bargeld ist seine vollständige Anonymität: Es gibt keine Aufzeichnung der Transaktionshistorie. Das ist ein unbestreitbarer Fakt.

    Obwohl die meisten Bürger heutzutage kein Problem damit haben, dass Geschäftsbanken, Zahlungsdienstleister und andere private Zahlungsanbieter wie Visa, Mastercard oder PayPal auf ihre Transaktionsdaten zugreifen, sind die Bedenken hinsichtlich des Schutzes der Privatsphäre und des Datenschutzes in Bezug auf CBDC deutlich ausgeprägt. Privatpersonen befürchten, dass der Staat im Vergleich zum privaten Sektor Zugang zu sensiblen und persönlichen Informationen über Transaktionen hat. Eine Erklärung dafür ist, dass die Auswirkungen von Privatunternehmen begrenzt oder harmlos sein könnten, wie beispielsweise weitere Werbung auf ihren Geräten. Im Gegensatz dazu könnten die Folgen beim Staat schwerwiegender sein. Die Befürchtungen könnten auch auf ein „angeborenes“ oder „erworbenes“ Misstrauen gegenüber Regierungen zurückzuführen sein, die über eine große Menge an Daten über die Bürger verfügen, was zu Bedenken hinsichtlich staatlicher Überwachung und der Maxime „Big Brother is watching you“ führt.

    Die meisten Menschen ignorieren oft die Tatsache, dass in einer digitalen Wirtschaft der Staat bereits Zugriff auf Daten von Privatunternehmen wie Geschäftsbanken und Zahlungsdienstleistern hat. Dies geschieht normalerweise aus verschiedenen Gründen, einschließlich der Überwachung von Finanztransaktionen zur Bekämpfung von Geldwäsche und Terrorismusfinanzierung, der Durchsetzung von Steuergesetzen und der Aufrechterhaltung der Finanzstabilität. Der Zugang zu solchen Daten wird formal durch Datenschutzgesetze und -richtlinien geregelt, um die Privatsphäre der Bürger zu schützen.

    Jedoch erlaubt die Technologie hinter CBDC eine viel tiefere Form der Überwachung. Ein recht eindringlicher Kommentar dazu stammt von Augustin Carstens, dem Generaldirektor der Bank for International Settlements (BIS):

    Würde eine solche Aussage Sie nicht zumindest zum Nachdenken anregen? Um Bedenken hinsichtlich staatlicher Überwachung zu mildern, ist es die Aufgabe der Behörden, der Öffentlichkeit zu versichern, dass angemessene Vorschriften und Kontrollen vorhanden sind. In diesem Zusammenhang spielen internationale Organisationen wie die OECD eine wichtige Rolle. Das Dokument der OECD mit dem Titel „Central Bank Digital Currencies (CBDCs) and democratic values” enthält einige relevante Aussagen zu diesem Thema.

    Eines der Risiken, die CBDCs für die Gesellschaft mit sich bringen, ist ihr potenzieller Einsatz als Überwachungsinstrumente, da sie potenziell Zugang zu einem höheren Maß an Informationen über die Nutzer haben, einschließlich Informationen auf Transaktions- und Kontoebene. Im Extremfall könnten die CBDCs den Regierungen die Möglichkeit geben, alle Transaktions- und sonstigen Finanzaktivitäten der Nutzer zu überwachen und zu verfolgen, und auch die Möglichkeit, eine größere Kontrolle über private Transaktionen auszuüben. Die Behörden könnten Nutzer und Transaktionen ungerechtfertigterweise zensieren, ohne dass ein ordnungsgemäßes Verfahren oder ein Rechtsbehelf vorgesehen ist.

    In einem Szenario, in dem CBDC für die groß angelegte Kontrolle von Geldtransaktionen eingesetzt werden, könnten CBDC zudem zu einem Instrument der Kontrolle und der sozialen Profilierung, der voreingenommenen und diskriminierenden Behandlung von Nutzern und möglichen Menschenrechtsverletzungen werden.

    Die OECD ist eine internationale Organisation mit 38 Mitgliedstaaten, die sich der Demokratie und Marktwirtschaft verpflichtet fühlen. Zu ihren Mitgliedern gehören viele EU-Staaten, die USA, Kanada, Großbritannien, Japan sowie Australien. Das Dokument betont, dass nicht nur die Risiken bei der Einführung von CBDC verstanden werden, sondern auch klare Richtlinien festgelegt werden, um sicherzustellen, dass demokratische Werte bei der Gestaltung und Umsetzung von CBDCs berücksichtigt werden. Es gibt vier Hauptbereiche, auf die besonders geachtet wird: (i) bürgerliche Freiheiten und Menschenrechte; (ii) Gleichbehandlung: Verfügbarkeit, Zugänglichkeit und Erschwinglichkeit; (iii) Privatsphäre und Integrität; (iv) Vertrauen: Sicherheit, Transparenz, betriebliche Widerstandsfähigkeit sowie Schutz der genannten Werte.

    Abb. 49: Demokratische Werte für die Gestaltung und Umsetzung von CBDCs, wie im OECD-Bericht definiert

    Die OECD betrachtet den Datenschutz wie folgt:

    Was die Datenschutzoptionen betrifft, so würde der niedrigste Grad an Datenschutz ein Design beinhalten, bei dem alle Onboarding/KYC- und Transaktionsdaten für die Zentralbank sichtbar sind. Der zweitniedrigste Grad des Datenschutzes würde Transparenz und Sichtbarkeit der oben genannten Daten nur für den Intermediär bedeuten. Am anderen Ende des Spektrums sind keine Daten für Dritte oder die Zentralbank selbst sichtbar, d. h. vollständige Anonymität, was nicht wünschenswert ist, da dies die Kontrolle des Umlaufs und die Verhinderung von Geldwäsche unmöglich machen würde. Außerdem würde dies Regulierungs- und Durchsetzungsmaßnahmen erschweren. Stattdessen sieht ein Modell des „selektiven Datenschutzes“ ein höheres Maß an Datenschutz für Zahlungen mit geringem Wert bzw. geringem Risiko vor, das vereinfachte Kontrollen beinhaltet (z. B. eine spezielle Brieftasche mit geringeren Anforderungen bei der Anmeldung). Bei diesem Modell würden Transaktionen mit höheren Beträgen weiterhin den Standardkontrollen unterliegen.

    Bislang haben keine der Zentralbanken, die CBDC-Forschung betreiben, erklärt, dass sie beabsichtigen, detaillierte und spezifische Daten über die Bürger zu sammeln und zu speichern.

    „Was die Zentralbank betrifft, so schlagen wir vor, dass wir keinen Zugang zu personenbezogenen Daten haben.“ Fabio Panetta, ECB 2023.

    Stattdessen haben die Zentralbanken erklärt, dass die gesammelten Daten auf einer aggregierten Ebene erhoben werden, um eine bessere Bewertung und ein zeitnahes Bild der Wirtschaftslage zu erhalten. Im ECB-Bericht „Aktueller Stand der Arbeit der Arbeitsgruppe für die Entwicklung des Regelwerks des digitalen Euro-Systems“ vom Januar 2024 wurde bestätigt, dass das Onboarding von Endnutzern des Digital-Euro über beaufsichtigte Intermediäre erfolgen soll. Diese Intermediäre, hauptsächlich Geschäftsbanken, werden auch für die Bereitstellung von Digital-Euro-Kontonummern (DEAN), Benutzeroberflächen und die Registrierung von Aliasnamen zuständig sein. Die Erfassung personenbezogener Daten wird im Wesentlichen nicht viel von der Prozedur abweichen, die bereits von den Geschäftsbanken verwendet wird.

    Unabhängig davon, ob Begriffe wie „selektiver Datenschutz“ oder „Pseudonymität“ verwendet werden, wird die vollständige Anonymität des physischen Bargelds nicht erreicht werden können. 

    Ein genehmigungspflichtiges CBDC-System, bei dem die Teilnahme von einer vertrauenswürdigen Stelle oder einer Reihe von vertrauenswürdigen Stellen verwaltet wird, könnte bessere Ergebnisse im Hinblick auf den Schutz der Privatsphäre sensibler Finanzdaten erzielen: Die Transaktionshistorie ist in der Regel nur für eine kleine Anzahl von vertrauenswürdigen Stellen einsehbar und wird gegenüber anderen geheim gehalten.“ [OECD]

    Ein Gegenargument der Befürworter von CBDC wird sein, dass die Privatsphäre und der Datenschutz der Bürger im Vergleich zur gegenwärtigen Situation besser geschützt werden können. Man wird die Tatsache hervorheben, dass private Zahlungsanbieter wie Visa, Mastercard oder PayPal auf die Transaktionsdaten mit CBDC nicht zugreifen werden können, um diese dann für Cross-Selling Aktionen zu nutzen.

    Erinnern wir uns an den Zusammenhang: Geld = Wert = Vertrauen.
    Beim Fiatgeld ist Geld = Wert = Vertrauen in eine Institution/Regierung.
    Beim CBDC ist Geld = Wert = VERTRAUEN in eine Institution/Regierung.

    Inwieweit VERTRAUEN Sie Ihrer Regierung? Das ist die zentrale Frage, wenn es um Datenschutz und Privatheit geht.

    Zugänglichkeit

    Gemäß dem Bericht der Europäischen Zentralbank „Aktueller Stand der Arbeit der Arbeitsgruppe für die Entwicklung des Regelwerks des digitalen Euro-Systems“ vom Januar 2024 müssen Verbraucher einen ähnlichen Prozess wie beim Digitalen Privatbankgeld durchlaufen, um Zugang zu CBDC zu erhalten. Einige der Schritte des „Onboarding“ werden automatisiert und für die Öffentlichkeit bequemer und zugänglicher gemacht. Dennoch werden drei wesentliche Komponenten unverzichtbar sein: eine Identifikation (wie ein Personalausweis oder eine digitale ID), eine digitale Geldbörse (zum Beispiel als App auf einem Smartphone) und ein Bankkonto. In einem Interview erläutert Nandan Nilekani, CEO von Infosys Technologies, diese Verbindung auf prägnante Weise:

    Quelle: https://www.youtube.com/watch?v=lgnEg4MJvZI&t=2281s

    Wenn Sie Ihrer Regierung ausreichend VERTRAUEN und Zugänglichkeit mit Bequemlichkeit gleichsetzen, so könnte man schlussfolgern, dass der Zugang zum CBDC durchaus erleichtert werden kann.

    Sicherheit

    Wie Bargeld wird auch CBDC von Zentralbanken ausgegeben und durch ihre Autorität gestützt, was ein neues „Safe Asset“ in digitaler Form schafft. Somit tritt CBDC grundsätzlich in direkte Konkurrenz zum Privatbankgeld der Geschäftsbanken.

    Wenn man die Rolle der Geschäftsbanken im weiteren Verlauf der Finanzsystementwicklung als weniger bedeutend ansieht, könnte man das Retail-CBDC anlagenähnlicher gestalten, beispielsweise indem man die CBDC-Beträge der Endverbraucher wie ein Sparangebot verzinst. Dies hätte weitreichende Auswirkungen auf die Geschäftsbanken, da ihr Einlagengeschäft in diesem Szenario stark belastet würde und ihr gesamtes Geschäftsmodell in Frage gestellt wäre. Wenn die Geschäftsbanken weiterhin eine wichtige Rolle spielen sollen, könnte sich CBDC ausschließlich auf bargeldähnliche Funktionen beschränken. Da die Geschäftsbanken derzeit direkten Kontakt zu den Endnutzern haben, liegt es hauptsächlich an ihnen, die allgemeine Akzeptanz und den Erfolg von CBDC zu beeinflussen. Daher wird jede Zentralbank wahrscheinlich eine digitale Zentralbankwährung nicht gegen den Widerstand der Geschäftsbanken einführen und CBDC in der Anfangsphase ausschließlich als Alternative zum Bargeld betrachten.

    Ein weiteres Problem, das Geschäftsbanken Kopfschmerzen bereiten kann, ist das sogenannte Bank-Run-Szenario. Ein Bank-Run tritt auf, wenn eine große Anzahl von Menschen gleichzeitig beginnt, ihre Einlagen von einer Bank abzuheben, aus Angst, dass die Bank zahlungsunfähig werden könnte. Dies kann zu finanziellen Schwierigkeiten oder sogar zum Zusammenbruch der Bank führen, da sie möglicherweise nicht genügend liquide Mittel hat, um alle Abhebungen zu decken (siehe auch Kapitel 2.2.1.). In Zeiten der Krise könnte ein solches Szenario schnell zur Realität werden. Anstatt sich in Schlangen vor Geldautomaten anzustellen, könnten die meisten Menschen nach der Einführung von CBDC mit einem einfachen Mausklick ihre Einlagen bei einer Geschäftsbank in das vermeintlich sicherere CBDC umwandeln. Um dem vorzubeugen, werden die Zentralbanken voraussichtlich eine Obergrenze für den Besitz von CBDC einführen. Im Euroraum wird diese Obergrenze höchstwahrscheinlich nicht 3.000 EUR überschreiten.

    Transaktionen über der festgelegten Obergrenze können auf Wunsch des Nutzers laut Europäischer Zentralbank mit der sogenannten Wasserfallfunktion (Waterfall bzw. reverse Waterfall) abgewickelt werden. Dabei werden Beträge über dem Limit entweder von oder auf das Geschäftsbankkonto des Nutzers transferiert.

    In der Praxis bedeutet dies, dass das digitale EURO-Konto direkt mit dem Geschäftsbankkonto verbunden ist und eher als eine kleine Erweiterung betrachtet wird. In diesem Szenario werden die Vorteile eines „Safe Assets“ für den Endverbraucher deutlich relativiert.

    In Bezug auf Bequemlichkeit und E-Commerce bringt CBDC im Vergleich zum digitalen Privatbankgeld keine signifikanten Neuerungen mit sich.

    Allerdings könnten die Transaktionskosten sowohl für den Einzelhändler als auch für den Endverbraucher durch das Wegfallen privater Zahlungsdienstleister wie Visa, Mastercard oder PayPal gesenkt werden. Neue technologische Innovationen wie Distributed Ledger Technology (DLT), Tokenisierung und Smart Contracts könnten die Kosten für Inlands- und insbesondere Auslandsgeldtransaktionen weiter reduzieren.

    Damit ergibt sich folgende Zwischenbilanz:

    Ein Befürworter von CBDC könnte argumentieren, dass im Vergleich zu digitalem Privatbankgeld die Privatsphäre, Zugänglichkeit, Sicherheit und Kostenstruktur verbessert werden. Ein neutraler Beobachter könnte hauptsächlich die Kostenvorteile erkennen und beginnen, Fragen darüber zu stellen, wie weit sein Vertrauen in die Regierung reicht.

    Geopolitische Vorteile

    Momentan wird der US-Dollar in etwa 88% aller weltweiten Devisengeschäfte direkt oder indirekt verwendet. Diese Verwendung des Dollars, zusammen mit der Dollarisierung in einigen Ländern und der Tatsache, dass viele Zentralbanken den Dollar als Reservewährung halten, gibt den USA viel Macht, sogar außerhalb ihrer Grenzen. Zum Beispiel können sie durch Sanktionen und politischen Druck Einfluss auf andere Länder ausüben. Die jüngsten Ereignisse, wie der Krieg in der Ukraine und die Reaktion des Westens darauf, Russland vom Finanzsystem auszuschließen, haben viele Länder dazu gebracht, sich für CBDC zu interessieren, um in Zukunft besser geschützt zu sein.

    Ein funktionierendes Abrechnungssystem zwischen zwei beliebigen Zentralbanken kann dafür sorgen, dass die Wirtschaftstätigkeit ununterbrochen fortgesetzt werden kann. Selbst wenn dieses System teurer ist als herkömmliche Kanäle, kann es immer noch kostengünstiger sein als das komplizierte Netzwerk von Bankbeziehungen, das derzeit genutzt wird, um Sanktionen zu umgehen. Viele Länder, die ihre eigene Widerstandsfähigkeit stärken wollen, werden zweifellos die Bedeutung eines zuverlässigen Abrechnungssystems in der geopolitischen Landschaft in Betracht ziehen.

    Die weltweit zunehmende geopolitische Instabilität hat die EZB dazu veranlasst, die Erprobung der bereits beschriebenen konzeptionellen Lösungen für die Abwicklung von Zentralbankgeld für Großhandelstransaktionen (Wholesale CBDC) zu beschleunigen.

    Obwohl dieser Aspekt hauptsächlich die Entwicklung von Wholesale CBDC betrifft, wird er von den Befürwortern von Retail-CBDC oft als überzeugendes Argument genutzt, um die Notwendigkeit von CBDC zu unterstreichen. Nichts eint mehr als ein äußerer Feind.

    Programmierbarkeit

    In den vorigen Kapiteln wurde gezeigt, dass die CBDC-Technologie einige wesentliche Elemente der Technologie aus dem Krypto-Ökosystem verwendet. Dazu gehören die Distributed-Ledger-Technologie, die Tokenisierung sowie die Verwendung von Smart Contracts. Das macht CBDC programmierbar. Daraus können sich verschiedene Szenarien ergeben.

    Zum Beispiel könnten Ablaufdaten für Konjunkturmittel eingeführt werden, ebenso wie Ausgabenbeschränkungen für bestimmte Orte oder Regionen und die Begrenzung der Verwendung auf bestimmte Waren wie Lebensmittel. Es könnte auch Einschränkungen geben, die den Kauf von anderen Waren wie Alkohol und Zigaretten verbieten. Solche Szenarien sind Wasser auf die Mühlen der CBDC-Skeptiker.

    An dieser Stelle wird erneut die Verbindung zwischen CBDC und den demokratischen Werten hervorgehoben. In dem Dokument „Central Bank Digital Currencies (CBDCs) and democratic values“ äußert sich die OECD zu diesem Thema wie folgt:

    Die Programmierbarkeit könnte zwar staatlich oder von der Zentralbank initiiertes programmierbares Geld ermöglichen, das nur auf bestimmte Weise funktioniert, doch würde dies den politischen Zielen zuwiderlaufen, den Bürgern einheitliche CBDCs zur Verfügung zu stellen und das Vertrauen der Nutzer zu fördern. Die Programmierbarkeit von Zahlungen hingegen, die von den Nutzern kontrolliert wird, könnte den Nutzern erweiterte Funktionen bieten, um Regeln für ihre Zahlungen festzulegen. In einigen Fällen ist vorgesehen, dass Anbieter von Zahlungsschnittstellen und Anbieter von Schnittstellen zu externen Diensten solche programmierbaren Funktionen selbst implementieren könnten, aber sie würden die Zustimmung der Nutzer erfordern und nicht auf Anweisung des Emittenten erfolgen.

    Die Europäische Zentralbank (EZB) unterscheidet zwischen zwei Konzepten: programmierbares Geld und programmierbare Zahlungen. Bei programmierbarem Geld können Bedingungen für den digitalen Euro (wie z. B. oben exemplarisch erwähnt) festgelegt werden. Auf der anderen Seite beziehen sich programmierbare Zahlungen darauf, dass Zahlungen automatisch ausgelöst werden können, wenn vordefinierte Bedingungen erfüllt sind. Kurz gesagt, CBDC ist eine digitale Währung in elektronischen Geldbörsen, die für Transaktionen verwendet wird. Programmierbare Zahlungen betreffen die Aktionen, die mit dem CBDC in elektronischen Geldbörsen durchgeführt werden können.

    Die EZB hat programmierbares Geld ausdrücklich ausgeschlossen, befürwortet jedoch programmierbare Zahlungen. Programmierbare Zahlungen können laut EZB die Nutzererfahrung verbessern und die Zahlungseffizienz steigern. Dies geschieht auf Ebene der Geschäftsbanken und Zahlungsdienstleister (PSP) und nicht auf der Ebene der Zentralbank. Es erfordert die Zustimmung der Nutzer und wird nicht zwangsweise eingeführt.

    Die Befürworter der CBDC betrachten die programmierbaren Zahlungen als Basis für die Schaffung von innovativen Finanzdienstleistungen. 

    Was sich hinter den innovativen Finanzdienstleistungen verbergen kann, wird die Zukunft zeigen.

    Einige Denkansätze in diesem Zusammenhang kann man in dem Artikel „Rethinking the Rise of Global Central Bank Digital Currencies: A Policy Perspective“ (Überlegungen zum Aufkommen globaler Zentralbank-Digitalwährungen: Eine politische Perspektive) von Gengxuan et al. finden.

    Die Autoren dieser Studie erforschen, wie die Kombination von CBDC und Smart Contracts die Finanzpolitik direkt beeinflussen kann. Im Vergleich zu den Auswirkungen von CBDC als Tauschmittel sind die Auswirkungen von CBDC als politisches Instrument noch bedeutsamer und komplexer.

    Zentralbanken nutzen traditionell eine Strategie namens „Forward Guidance“, um ihre zukünftigen geldpolitischen Pläne transparent zu kommunizieren. Diese Kommunikation betrifft Aspekte wie die Richtung der Zinssätze oder andere geldpolitische Maßnahmen. Ziel ist es, die Erwartungen der Märkte zu beeinflussen, um wirtschaftliche Ergebnisse wie Investitionen, Verbrauchervertrauen oder die Inflation zu lenken. Dabei wird davon ausgegangen, dass die Marktteilnehmer rational auf diese Informationen reagieren. Allerdings zeigen die Autoren auf, dass die meisten Verbraucher aufgrund ihrer kognitiven Fähigkeiten nur begrenzt auf diese Politik reagieren. Inflationserwartungen spielen oft keine Rolle bei ihren Ausgaben- und Sparentscheidungen.

    Die Frage lautet, wie CBDC in Verbindung mit Smart Contracts genutzt werden kann, um Einzelpersonen und Haushalte dazu zu bringen, Entscheidungen zu treffen, die mit den Zielen der Zentralbank übereinstimmen. Diese Kombination könnte es den Zentralbanken ermöglichen, den Entscheidungsprozess der Menschen, der rational, begrenzt rational oder auch psychologisch motiviert sein kann, zu beeinflussen. Durch Smart Contract-Technologie können die Kosten und Nutzen bestimmter Entscheidungen für Haushalte verändert werden. CBDC in Verbindung mit programmierbaren Zahlungen könnte somit als Instrument dienen, um die Auswirkungen der Geldpolitik auf Mikroebene zu verbessern.

    Ein mögliches Anwendungsszenario wäre die Steuersenkungspolitik. Wenn diese über CBDC implementiert wird, können die Bedingungen der Steuerermäßigung in den Smart Contract integriert werden. Beispielsweise könnte festgelegt werden, dass die Steuerermäßigung für Konsum oder Investitionen verwendet werden muss und nicht für die Schuldentilgung. Traditionell können Steuererleichterungen das Konsum- und Investitionsverhalten beeinflussen, aber die Vorteile wirken sich nicht direkt auf Konsum und Investitionen aus. Die Umsetzung bedingter Steuersenkungen über CBDC und Smart Contracts kann sich direkt auf den Konsum auswirken. Zudem könnten gezielte Steuersenkungen für verschiedene Verbrauchergruppen vorgenommen werden, beispielsweise für einkommensschwache Familien, da diese besonders empfänglich für Steuererleichterungen sind.

    Über CBDC können staatliche Käufe mithilfe von Smart Contracts abgewickelt werden. Solche Zahlungen können an politische Ziele angepasst werden, wie zum Beispiel die Unterstützung von kleinen und mittleren Unternehmen (KMU). Oft können KMU jedoch nicht direkt von gezielten Steuersenkungen oder Käufen profitieren, was zu einer ungleichen Verteilung politischer Unterstützung führt. CBDC und intelligente Verträge könnten diese Effekte verstärken, indem sie Unternehmen verpflichten, mehr Geschäfte mit KMU zu tätigen.

    Das sind nur ein paar Beispiele dafür, wie Retail-CBDC auf individueller Ebene als effektives Instrument zur Umsetzung geldpolitischer Maßnahmen und politischer Ziele dienen könnte. Dies steht im Einklang mit dem Konzept von „Belohnung und Bestrafung“, das in der modernen Biopolitik Anwendung findet. Aus Sicht des Einzelnen erscheint diese Art der Regierungsführung als eine Art „guter Hirte“, dessen Aufgabe es ist, das Wohl der Menschen zu fördern. Das Ziel dieser Regierungstechnik ist es, die Menschen dazu zu bringen, ihre Leistung, ihre Kräfte und ihre Fähigkeiten zu steigern, um den Beitrag zum Produktionsapparat der Gesellschaft zu maximieren. Durch diese Regulierungsmethoden werden Normen festgelegt, die zwischen „normal“ und „anormal“ unterscheiden. Es werden „Korrekturinstrumente“ definiert, die dazu beitragen, das Verhalten des Einzelnen zu ändern und ihn als integralen Bestandteil der Bevölkerung zu formen.

    Die Normierung im biopolitischen Kontext führt zu zwei komplementären biopolitischen Handlungen:
    a) Die Förderung (Inklusion) derjenigen, die als förderungswürdig angesehen werden.
    b) Die Ausscheidung (Exklusion) derjenigen, die nicht als förderungswürdig betrachtet werden.

    Mehr zu diesem Thema findet man hier.

    Fazit:

    Die zukünftige Entwicklung des Fiat-Finanzsystems wird stark von Technologieelementen beeinflusst sein, die im Krypto-Ökosystem entwickelt und erprobt wurden. Dazu gehören Distributed-Ledger-Technologie, Tokenisierung und Smart Contracts.

    Mittel- bis langfristig werden sowohl das Wholesale CBDC als auch das Geschäftsbankgeld in Form von Tokens digitalisiert. Tokens repräsentieren Vermögenswerte, physische Objekte oder immaterielle Werte auf einer programmierbaren Plattform. Dadurch werden sowohl CBDC als auch das Geschäftsbankgeld verstärkt in Smart Contracts integriert. Dies wird zunächst in Business-to-Business (B2B) -Transaktionen implementiert und später nahtlos in das Business-to-Customer (B2C) -Umfeld übergehen.

    Die Einführung von Retail-CBDC soll die letzte Lücke in diesem Tokenisierungsprozess schließen und als digitale Version des physischen Bargelds in Smart Contracts integriert werden.

    Neben der Optimierung und Beschleunigung von bankinternen Prozessen und Transaktionen zielt diese Umstellung des Finanzsystems darauf ab, die geopolitische Resilienz von Staaten oder Staatsgemeinschaften zu erhöhen. Die Einführung von CBDC wird direkt mit dem Erhalt und der Verteidigung demokratischer Werte in der Gesellschaft verbunden.

    Durch die neue Infrastruktur können Zentralbanken aggregierte Daten erfassen, um ein genaueres Bild der Wirtschaftslage zu erhalten. Außerdem könnten sie durch Smart Contracts sowohl auf Makro- als auch auf Mikroebene zeitnah Korrekturmaßnahmen ergreifen. Die Umsetzung kann je nach demokratischer oder autoritärer Ausrichtung der Gesellschaft variieren. Daher wird das Vertrauen in die Regierung und ihr Engagement für demokratische Werte in dieser neuen Konstellation besonders betont.

    Auf jeden Fall wird CBDC als ein leistungsfähiges Instrument der Biopolitik in modernen Gesellschaften dienen, indem es die Koordination aller Marktteilnehmer im Sinne der Ziele der Zentralbank verbessert. Durch die enge Verbindung zwischen Zentralbank- und Regierungspolitik wird auch die Umsetzung bestimmter politischer Agenden unterstützt.

    5. Ein Blick in die Zukunft – Welcome to the tokenisation continuum

    Wenn Sie sich über die mögliche Entwicklung der europäischen Gesellschaft nach Einführung von CBDC und tokenisiertem Geld im Einklang mit demokratischen Werten noch unsicher sind, empfiehlt es sich, einen genaueren Blick auf die Zukunftsvision der Initiative „Tokenise Europe 2025“ zu werfen. Diese Initiative wurde von der Europäischen Kommission und dem Bundesverband deutscher Banken ins Leben gerufen und wird von der Unternehmensberatung Roland Berger sowie mehr als 20 Mitgliedsorganisationen aus verschiedenen Ländern und Branchen unterstützt, um die Tokenisierung Europas voranzutreiben.

    Die Zukunft Europas wird wie folgt beschrieben:

    Im Jahr 2030 gehen wir nicht mehr „online“, denn das Online-Sein ist ein fester Bestandteil des Lebens. Technologie und digitale Dienste sind in unsere täglichen Abläufe, unsere Arbeit und unseren Lebensstil eingebettet, und das 24 Stunden am Tag.

    EIN TAG IM LEBEN EINES TOKENISIERTEN EUROPAS IM JAHR 2030

    07:00
    Draußen wird es warm. Simon ist europäischer Staatsbürger und hat einen eindeutigen digitalen Identitäts-Token in seiner Smartwatch gespeichert. Simons digitaler Personal Trainer empfängt Fitnessdaten von seiner Smartwatch, während er schläft. Simons Token-basierter digitaler Zwilling errechnet immer die beste Aktion, die er als Nächstes durchführen sollte. Der Trainer erstellt einen Tagesplan, der auf Simons Vorlieben und Fitnesszustand abgestimmt ist. Der Plan für den heutigen Tag wird bereits vor dem Weckerklingeln an alle seine elektronischen Geräte gesendet. Eine Mikrozahlung an seinen digitalen Personal Trainer wurde automatisch getätigt, noch bevor Simon aufwachte. Da auch die Wetterdaten an sein Smart Home gesendet und von seinem lokalen Sensor angepasst wurden, wird die Klimaanlage aktiviert. Simon erhält einige Münzen für die von seinem lokalen Sensor gesammelten Daten.

    07:30
    Zeit für das Frühstück! Der Kühlschrank, der das Wetter und Simons Fitnesszustand kennt, wird ihm empfehlen, heute eine leichte Mahlzeit zu sich zu nehmen. Der Kühlschrank weiß, was in ihm gelagert wird, und kennt auch Simons Vorlieben (z. B. für Bio-Lebensmittel, die vom Hersteller über einen digitalen Token mit allen Informationen über Produktion, Transport und Lieferung digital zertifiziert sind). Durch die Kombination dieser Informationen mit Simons digitaler ID und seinen Zahlungsdaten kann der Kühlschrank fehlende Lebensmittel nachbestellen. Simons Lebensmittellieferant liefert ihm die Lebensmittel innerhalb von 20 Minuten nach Hause.

    08:00
    Simon erhält einen Vorschlag von seinem Anbieter von Elektrofahrzeugen: „Simon, Sie sollten bei heißem Wetter nicht den langen Weg ins Büro laufen. Wir empfehlen, eine umweltfreundliche Fahrgemeinschaft zu nutzen. Bitte bestätigen Sie die Vorbuchung, die wir vorgenommen haben.“ Im Jahr 2030 werden alle digitalen Identitäten – die von Menschen und Maschinen gleichermaßen – in digitalen Brieftaschen gespeichert. Diese Geldbörsen enthalten auch digitales Geld, Führerscheine, Versicherungspolicen und Angaben zur registrierten Adresse usw. – in Simons Fall alles nach seinen persönlichen Vorlieben und den Regeln, die er als Eigentümer der Daten selbst festgelegt hat. Das Elektroauto, das sich über Nacht auf dem Parkplatz aufgeladen hat, steht bereit und wartet auf ihn.

    08:15
    Um eine optimale Verteilung der Autos innerhalb der Stadt zu gewährleisten, berechnen dynamische Preismodule die Nutzungsgebühren auf der Grundlage des Standorts und/oder nahe gelegener Ereignisse. Nachdem der Autoschlüssel als digitaler Zwilling an Simons Smartphone gesendet wurde, wird die Nutzungsgebühr zusätzlich zum dynamischen Preis pro Kilowattstunde anhand des Verbrauchs berechnet. Die Versicherungsgebühr ist über einen separaten Versicherungs-Token und abhängig von seinem Fahrstil zu zahlen. Heute hat er einen Rabatt erhalten, weil er auch Inhaber eines Sicherheitstokens des Carsharing-Unternehmens ist, das heute eine Dividende ausschüttet.

    08:30
    Simon arbeitet in der Logistikabteilung eines Textilunternehmens, das seine Produkte außerhalb Europas herstellt und eine globale Lieferkette hat. In der Zeit vor der Tokenisierung war die Verwaltung globaler Lieferketten eine Herausforderung, da viele Lieferanten, Zwischenhändler und Behörden in vielen verschiedenen Ländern involviert waren – eine Komplexität, die zu den nicht-digitalen bzw. papiergestützten Prozessen, Sprachbarrieren, rechtlichen Unterschieden und Zeitzonenunterschieden hinzukam. In Kombination mit digitalen Verträgen und Transaktionen hat die Tokenisierung die Transparenz, Sicherheit und Effizienz solcher Transaktionen erheblich verbessert.

    09:00-17:00
    Von seinem Büro in Berlin aus kann Simon jedes Glied der Produktionskette verfolgen. Frau Jin pflückt die Baumwolle auf einem Feld in der Region Huang-Huai-Hai, und Herr Xiao liefert die Baumwolle an die Fabrik. Ein eingebetteter Token enthält Informationen darüber, welche Arbeiter an dem Produkt gearbeitet haben und am Transport per Lkw zum Hafen und zum Schiff usw. beteiligt waren. Dies ist besonders nützlich, um sicherzustellen, dass bei jedem Schritt nachhaltige und ethische Produktions- und Transportstandards eingehalten wurden. Da die Verträge mit den Lieferanten als intelligente Verträge in einem Netzwerk mit verteilter Ledger-Technologie definiert sind, erfolgen alle Zahlungen automatisch. Wenn die vertraglichen Anforderungen erfüllt sind, wird die Zahlung automatisch von der Geldbörse des Unternehmens abgebucht, während Simon im Büro einen Kaffee trinkt. Nachdem er sich vergewissert hat, dass mit der Transaktion alles in Ordnung ist, nimmt Simon an seinem Geschäftstermin teil, der in einer Metaverse-Anwendung stattfindet.

    17:00
    Am Ende seines Arbeitstages erinnert Simons digitaler Personal Trainer ihn an seinen Sportkurs, der sich ebenfalls im Metaversum befindet. Sein Trainer, der in den USA lebt, wird auf ihn warten, so dass beide ein digitales Training absolvieren können, als ob sie sich am selben Ort befänden.

    20:00
    Nach dem Training geht Simon mit Zeynep essen. Die Rechnung für das köstliche Abendessen wird direkt an Simons Brieftasche geschickt, wo er den Trinkgeldbetrag auswählt und in digitalen Euro bezahlt. Der Anbieter der Brieftasche – seine Bank – schickt ihm jedes Mal eine Benachrichtigung, wenn eine Zahlung oder eine andere Änderung in der Brieftasche vorgenommen wird. Darüber hinaus besteht seine persönliche elektronische Brieftasche nicht nur aus Zahlungsmitteln, sondern auch aus einer Vielzahl von tokenisierten Vermögenswerten: Aktien, Stablecoins, börsengehandelte Fonds (ETFs) und Unternehmensanleihen. Einige seiner Freunde besitzen auf die gleiche Weise sogar Teile von Oldtimern, Kunstwerken, Häusern und anderen Gegenständen. Dies ist möglich, weil früher illiquide Anlageklassen, hochpreisige Vermögenswerte und teure Transaktionen heute in kleinen Bruchteilen digital und fast ohne Transaktionskosten erworben und verarbeitet werden können.

    Zu Hause angekommen, sieht sich Simon ein letztes Mal die neuesten Nachrichten im Metaversum an, die auf seinen selbst definierten Vorlieben basieren. Dann macht er Schluss für heute.

    6. Epilog

    Entspricht diese Zukunftsvision, die von der Europäischen Kommission und dem Bundesverband deutscher Banken entwickelt wurde, Ihren Vorstellungen? Möchten Sie einen vergleichbaren Alltag wie Simon führen?

    Wenn ja, dann herzlichen Glückwunsch! Sie werden wahrscheinlich eine vorbehaltlose Liebesgeschichte mit CBDC und dem damit verbundenen System erleben.

    Wenn diese Vision bei Ihnen gemischte Gefühle auslöst, könnte Ihre Beziehung zu CBDC und dem dazugehörigen System eher eine Liebesgeschichte mit Vorbehalten sein. Trotz der wahrgenommenen Vorteile des neuen Systems hoffen Sie möglicherweise darauf, dass die Regierung ein starkes Demokratieverständnis zeigt und die potenziellen Nachteile des Systems abmildert oder zumindest berücksichtigt.

    Die Geschichte hat uns jedoch gelehrt, dass sich das Demokratieverständnis im Laufe der Zeit verändern kann. Es wird von verschiedenen Faktoren beeinflusst, darunter gesellschaftliche Entwicklungen, politische Ereignisse, kulturelle Veränderungen und individuelle Erfahrungen. Zum Beispiel können sich technologische Fortschritte, wirtschaftliche Bedingungen oder politische Krisen auf die Wahrnehmung und Interpretation von Demokratie auswirken. Medien und politische Diskurse können dazu beitragen, dass sich die Vorstellungen und Erwartungen bezüglich Demokratie im Laufe der Zeit ändern.

    Wenn Sie die Vision ablehnen, könnten Sie trotzdem darauf vertrauen, dass die Regierung ihr Versprechen einhält, dass der digitale Euro das Bargeld nicht ersetzen wird, obwohl in der Vision kein Wort über Bargeld verloren wird.

    Die Digitalisierung eröffnet uns die Möglichkeit, die Demokratie in einer völlig neuen Art und Weise zu gestalten.
    Yuval Noah Harari, Autor von „Sapiens: Eine kurze Geschichte der Menschheit”


    Quellen (Stand vom 18.05.2024)