Montag, 13. Mai 2024

Skalierung der KI: Aushebelung des Gesetzes des abnehmenden Grenznutzens

Die Integration von Künstlicher Intelligenz in verschiedene Bereiche der Wirtschaft und Gesellschaft ist eines der sichtbarsten Beispiele für technologische Durchbrüche, die nicht nur inkrementelle Verbesserungen, sondern einen grundlegenden Paradigmenwechsel in der menschlichen Produktivität herbeiführen. Anders als viele technologische Trends, die oft nach einer anfänglichen Euphorie in eine Phase mit abnehmenden Erträgen eintreten, zeichnet sich die Entwicklung der KI durch anhaltendes exponentielles Wachstum aus.

Ein wesentliches Merkmal, das die anhaltende Dynamik der KI hervorhebt, ist ihre Fähigkeit, sich kontinuierlich zu verbessern und zu optimieren. KI-Systeme können große Datenmengen schneller verarbeiten und analysieren, als es Menschen möglich wäre, und sie lernen aus jeder Interaktion, werden mit der Zeit effizienter und effektiver. Andrew Ng, einer der führenden Köpfe im Bereich KI und Mitbegründer von Google Brain, bringt es auf den Punkt: „KI ist der neue Strom.“ Ng vergleicht die Auswirkungen der KI auf die Industrie mit der Elektrifizierung zu Beginn des 20. Jahrhunderts, die nahezu jeden Industriesektor revolutionierte.

Das exponentielle Wachstum ist in der KI-Branche durch den schnellen Anstieg von Investitionen und technologischen Fortschritten erkennbar. So erreichten beispielsweise die globalen Investitionen in KI-Startups im Jahr 2020 laut PwC 75 Milliarden US-Dollar, ein Anstieg von mehr als 55 % gegenüber dem Vorjahr. Die steigende Anzahl von Patentanmeldungen im Bereich der KI, die sich laut WIPO (Weltorganisation für geistiges Eigentum) zwischen 2010 und 2020 verdreifacht hat, unterstreicht ebenfalls dieses Wachstum.

Die Skalierbarkeit der KI gewährleistet weiterhin, dass sie sich nicht (sic!) dem Gesetz des abnehmenden Grenznutzens unterwirft. Im Gegensatz zu physischen Produkten, bei denen die Produktionskosten mit der Ausweitung der Produktion steigen können, werden KI-Systeme effizienter, je mehr Daten sie verarbeiten können. Dies führt zu einer Kostenreduktion, die es wirtschaftlich machbar macht, KI-Lösungen in einer zunehmenden Anzahl von Bereichen einzusetzen.

Darüber hinaus ermöglicht KI branchenübergreifende Innovationen. Von der Gesundheitsversorgung, in der KI zur Diagnose von Krankheiten wie Krebs eingesetzt wird, über die Finanzwelt, die durch automatisierte Handelssysteme und Risikobewertungen transformiert wird, bis hin zur Landwirtschaft, in der KI zur Optimierung von Ernteerträgen verwendet wird, sind die Anwendungsbereiche der KI praktisch unbegrenzt.

Sonntag, 5. Mai 2024

The humanoid robots are coming

The development in the manufacturing of humanoid robots has currently attracted worldwide attention. These robots, which possess human-like characteristics, are no longer just the stuff of science fiction but are increasingly being used in various sectors of society and industry. 


Companies like Boston Dynamics, Hanson Robotics, SoftBank Robotics, and recently Figure AI are at the forefront of this revolution, driving progress forward. Tesla announces figures that one might not yet believe, which is why they are not listed here. Statistically, the entire industry for humanoid robots promises exponential growth. According to recent reports from Grand View Research, the global market for humanoid robots is expected to reach a volume of over 12 billion US dollars by 2027.

Statista forecast for artificial intelligence until 2030

According to a recent study by Next Move Strategy Consulting, the market for artificial intelligence (AI) is set for impressive growth. Currently estimated at nearly 100 billion US dollars, the value of the AI industry is expected to rise to almost two trillion US dollars by 2030—a twentyfold increase within a decade. The applications of AI are diverse and span numerous industries; these include supply chains, marketing, product manufacturing, research, analysis, and many other areas that will integrate artificial intelligence into their business structures. The main trends driving AI in the coming years include chatbots, AI for image generation, and mobile applications. A particularly rapidly growing market is generative AI. With the introduction of ChatGPT 3.0 in 2022, a new awareness of the possibilities of generative artificial intelligence has developed. An indicator of the growing interest in this technology is the rapidly increasing number of Google searches for generative AI from 2022 to 2023. This interest is expected to continue as both ChatGPT and other providers work on updated chatbot versions and other generative AI programs.


Awareness of AI is also growing in the academic field. Artificial intelligence has long been a fast-paced field, and experts in science must keep up with the rapid technological developments. In North America, for example, most PhD specialists go into the industrial sector, while less than half pursue a career in academia. Traditional academic work on AI often lags because the academic process takes time. However, a trend shift is evident as more and more publications on this topic appear.

Overall, the next decade promises to be an era of significant growth and innovation for the AI market, driven by technological advancements and an increasing inclusion of AI in various economic sectors.

Source: https://www.statista.com/

Pope Francis will participate in the upcoming G7 session on Artificial Intelligence.

Pope Francis will participate in the upcoming G7 session on Artificial Intelligence, which will be chaired by Italy in the southern region of Apulia. The Press Office of the Holy See has confirmed that the Holy Father will intervene in the special session on Artificial Intelligence, taking place from June 13 to 15 in Borgo Egnazia. 

This marks the first time in history that a Pontiff has participated in the proceedings of a G7 meeting. Pope Francis will attend the "Outreach Session," specifically organized for guest participants of the summit, which will include leaders from the United States, Canada, France, the United Kingdom, Germany, and Japan.

The Pope's involvement reflects the growing importance of ethical considerations in dealing with new technologies. The Vatican has already shown interest in shaping AI ethics, particularly through promoting the "Rome Call for AI Ethics of 2020" by the Pontifical Academy for Life. This call aims to integrate ethical principles into the development and application of AI technologies.

Source: https://www.vaticannews.va/de.html

Microsoft's military AI strategy

Microsoft's involvement in artificial intelligence (AI) developments has significantly increased in recent years, particularly through the integration of their technologies into military applications, raising ethical and strategic questions.

According to a report by "The Intercept," Microsoft has attempted to position its Azure version of the OpenAI image generator DALL-E as a tool for the U.S. Department of Defense (DoD). This demonstrates Microsoft's intent to capitalize on the military's growing interest in generative AI for warfare purposes. Microsoft's pitch emphasized using the DALL-E models to create images for combat system training, highlighting the company's strategic direction of integrating its technologies into warfare.

This development raises concerns as the potential for AI to indirectly cause civilian damage is considerable through its integration into military planning and operations. Despite OpenAI's original guidelines prohibiting the use of their technology for military purposes, this restriction was silently lifted at the beginning of 2024. This change allows Microsoft to more openly market its AI technologies for military applications.

The policy reversal by OpenAI and the active promotion of Microsoft's AI tools for military applications illustrate the blending of civilian technological advancements with military uses. The strategic alliance between Microsoft and OpenAI shows the company's ambition to be a leader in implementing AI in warfare, even if it potentially conflicts with their publicly proclaimed mission of serving humanity.

In parallel, the Israeli military has developed an AI system called "Lavender" that was used to create a "kill list" of individuals in the Gaza Strip, as reported by "+972 Magazine." This further underscores the ethical concerns and the need for stricter regulation and oversight of military AI applications.

Eric Schmidt, former CEO of Google, is also involved in similar developments and has founded a company called "White Stork" that focuses on producing AI-based kamikaze drones. These drones, intended for the Ukrainian government, are another example of AI being used in warfare. Schmidt, who plays a key role in bridging Silicon Valley and the Pentagon, shows how former technology leaders are now actively engaged in the military application of their knowledge and skills.

Samstag, 4. Mai 2024

Die libertäre Sackgasse

Das Ziel der Libertären ist die Abschaffung des Staates oder einen so schwachen Staat zu halten, so dass er (zu Ende gedacht) zwangsläufig von einzelnen Monopolunternehmen kontrolliert werden würde. Auch Wahlen wären in einem libertären System nutzlos, weil die Wähler von den dominierenden Monopolunternehmen kontrolliert würden, ähnlich wie es aus der Republik des Römischen Reiches bekannt ist und zum Teil bei den US-Wahlen zu beobachten ist. Das Ergebnis der Einführung eines libertären Systems wäre die Umwandlung in ein Machtgefüge dezentraler Diktaturen (Branchenmonopolisten), die sich wie Drogenkartelle durch Verhandlungen die territoriale beziehungsweise Branchenführerschaft sichern würden. Das Gewaltmonopol wäre in einem solchen System praktisch aufgehoben, weil die Kapitalführerschaft die Zuständigkeit übernähme. Private Sicherheitsdienste der Monopolunternehmen würden für Kontrolle in ihren jeweiligen Zuständigkeitsbereichen sorgen.




Die Annahme der Libertären, dass durch wundersame ökonomische Gleichgewichtsformeln (unsichtbare Hand) der Staat nicht gebraucht wird, klammert das Wissen um die Entstehung von Monopolen durch Marktversagen (Preisabsprachen, feindliche Übernahmen, Netzwerkeffekte) aus. Die Profiteure schnell wachsender Monopole, wie in den USA zu beobachten, fühlen sich durch den stärkeren Akteur, also den Staat, behindert und entwickeln Strategien, diesen öffentlich für alle möglichen Versagen verantwortlich zu machen. Besorgniserregend ist dabei, dass durch den Einsatz künstlicher Intelligenz eine Gattung von Oligarchen hervorgebracht wird, die nicht mehr als Milliardäre, sondern als Billionäre bezeichnet werden müssen, also politischen Akteuren mit diktatorischen Machtbefugnissen innerhalb ihres Firmengeflechts. Diese verfügen dann über mehr politischen Einfluss als die meisten Präsidenten dieser Erde.

Der Wunsch dieser neuen Sorte von Super-Oligarchen nach noch mehr Einfluss durch die Einführung einer Super-Ideologie namens Libertarismus wird jedoch an eine natürliche Grenze stoßen, weil jede Ideologie zu einem bestimmten Zeitpunkt eine Überdehnung erfährt und von anderen Ideologien und deren Anhängern eingeschränkt wird.

Link Empfehlungen:


Microsofts militärische KI Strategie

Microsofts Beteiligung an Entwicklungen im Bereich der Künstlichen Intelligenz (KI) hat in den letzten Jahren signifikant zugenommen, insbesondere durch die Integration ihrer Technologien in militärische Anwendungen, was ethische und strategische Fragen aufwirft.


Laut einem Bericht von "The Intercept" hat Microsoft versucht, seine Azure-Version des OpenAI Bildgenerators DALL-E als Werkzeug für das US-Verteidigungsministerium (DoD) zu positionieren. Dies zeigt die Absicht von Microsoft, aus dem wachsenden Interesse des Militärs an generativer KI für Kriegszwecke Kapital zu schlagen. Microsofts Pitch betonte die Nutzung der DALL-E Modelle zur Erstellung von Bildern für das Training von Gefechtsführungssystemen, was die strategische Ausrichtung des Unternehmens unterstreicht, seine Technologien in die Kriegsführung zu integrieren.


Diese Entwicklung wirft Fragen auf, da das Potenzial der KI, indirekt zivilen Schaden zu verursachen, durch ihre Integration in militärische Planungen und Operationen beträchtlich ist. Trotz der ursprünglichen Richtlinien von OpenAI, die die Nutzung ihrer Technologie für militärische Zwecke untersagten, wurde diese Beschränkung zu Beginn des Jahres 2024 stillschweigend aufgehoben. Diese Änderung erlaubt es Microsoft, seine KI-Technologien offener für militärische Anwendungen zu vermarkten.

Die Kehrtwende in der Politik von OpenAI und die aktive Förderung von Microsofts KI-Tools für militärische Anwendungen verdeutlichen die Vermischung von zivilen technologischen Entwicklungen mit militärischen Anwendungen. Die strategische Allianz von Microsoft mit OpenAI zeigt, wie das Unternehmen bestrebt ist, führend in der Implementierung von KI in der Kriegsführung zu sein, auch wenn dies potenzielle Konflikte mit ihrer öffentlich proklamierten Mission, der Menschheit zu dienen, mit sich bringt.

Parallel dazu hat das israelische Militär ein KI-System namens "Lavendel" entwickelt, das zur Erstellung einer "Todesliste" von Personen im Gazastreifen verwendet wurde, wie vom "+972 Magazin" berichtet. Dies unterstreicht weiter die ethischen Bedenken und die Notwendigkeit einer strengeren Regulierung und Überwachung der militärischen Anwendung von KI.

Eric Schmidt, ehemaliger CEO von Google, ist ebenfalls in ähnliche Entwicklungen involviert und hat ein Unternehmen namens "White Stork" gegründet, das sich auf die Herstellung von KI-basierten Kamikaze-Drohnen konzentriert. Diese Drohnen, die für die ukrainische Regierung bestimmt sind, sind ein weiteres Beispiel für die Verwendung von KI in der Kriegsführung. Schmidt, der eine Schlüsselrolle in der Brücke zwischen Silicon Valley und dem Pentagon spielt, zeigt, wie frühere Technologieführer nun aktiv in der militärischen Anwendung ihrer Kenntnisse und Fähigkeiten engagiert sind.

Mittwoch, 1. Mai 2024

Susan Neiman: Ein Plädoyer für den Universalismus

Susan Neiman, eine US-amerikanische Philosophin und Direktorin des Einstein Forums in Potsdam, hat in ihrem jüngsten Werk "Links ist nicht woke" eine dezidierte Kritik an aktuellen Strömungen innerhalb der politischen Linken formuliert. Neiman, die sich als traditionelle Linke sieht, plädiert leidenschaftlich für den Universalismus, den sie als fundamentales Prinzip einer gerechten und fortschrittlichen Gesellschaft betrachtet. Ihre Kritik richtet sich gegen das, was sie als "wokeness" beschreibt – eine Haltung, die ihrer Meinung nach die universalistischen Grundlagen der Linken verdrängt hat.

Neiman argumentiert, dass die sogenannte "woke" Bewegung durch eine übermäßige Fokussierung auf Identitätspolitik und Partikularismus den Blick für umfassendere soziale und politische Ziele verloren hat. In ihrem Buch und zahlreichen Vorträgen hebt sie hervor, dass eine Reduktion des politischen Diskurses auf Rasse, Geschlecht oder andere Aspekte der Identität dazu führen kann, dass die tieferen, universalen Fragen der Gerechtigkeit und Gleichheit vernachlässigt werden. Dies sieht sie nicht nur als eine theoretische Fehlentwicklung, sondern auch als praktisch problematisch, da es die linke Bewegung spaltet und schwächt.

Ein Kernpunkt von Neimans Kritik ist die Idee, dass "wokeness" oft in einen neuen Stammesdenken mündet, das dem eigentlichen Geist der Aufklärung, der für Universalität und Rationalität steht, widerspricht. Sie sieht eine gefährliche Parallele zu rechten Bewegungen, die ebenfalls identitätsbasierte Politik betreiben, jedoch mit exklusiveren und ausschließenderen Zielen. Neiman warnt davor, dass diese Art von Linkssein, die sich intensiv mit Identitätsfragen beschäftigt, letztlich dazu führen könnte, dass die linke Bewegung den Kontakt zu ihren ursprünglichen, inklusiven und emanzipatorischen Zielen verliert.

Ihre philosophischen Reflexionen basieren auf einer tiefen Auseinandersetzung mit den Werken europäischer Aufklärer wie Rousseau, Kant und Diderot, die sie als Pioniere der kritischen und universalistischen Denkweise anerkennt. Neiman stellt fest, dass diese Denker, trotz ihrer zeitbedingten Einschränkungen, die ersten waren, die Eurozentrismus und Kolonialismus kritisierten und dabei die Ideale der Gleichheit und der universalen Menschenrechte formulierten.

In ihrem Buch und auf Podiumsdiskussionen betont Neiman, wie wichtig es ist, sich an den Fortschritt zu erinnern, der bereits erreicht wurde, und daraus Motivation für zukünftige Veränderungen zu schöpfen. Sie fordert die Linke auf, sich erneut auf die Kernprinzipien der Gerechtigkeit und des Universalismus zu besinnen und sich von einem reduktionistischen Fokus auf Identitätspolitik zu lösen. Durch ihre Arbeiten versucht Neiman, eine Brücke zu bauen zwischen traditionellen linken Werten und den Herausforderungen einer sich schnell verändernden, globalisierten Welt, in der die Fragen der Gerechtigkeit komplexer, aber auch dringender geworden sind.







Should We Fear NVIDIA's P/E Ratio?

The price-to-earnings ratio (P/E ratio) is a fundamental metric in stock analysis that expresses the relationship between a company's current stock price and its earnings per share. The P/E ratio is calculated by dividing the market price of a share by the earnings per share (EPS). EPS is usually derived from the company's net income minus any dividends on preferred shares and divided by the number of outstanding common shares. This metric indicates how much investors are willing to pay for every euro of the company's earnings and is often used to determine whether a stock is expensive or cheap relative to its earnings.
A P/E ratio of 76, as in the case of NVIDIA, means that investors are paying 76 euros for every euro of profit generated by NVIDIA. Such a high P/E ratio suggests that investors have high expectations for the company's future growth and are willing to pay a premium for the shares. This is often the case with technology companies, which are valued higher due to their innovative power and potential for disruptive growth.
However, a high P/E ratio also carries risks that investors should consider. First, if the company's growth expectations are not met, this can lead to a rapid revaluation and thus a significant drop in stock price. For example, a slowdown in the graphics processor sector or a loss of market share to competitors like AMD or Intel could mean that expected profits are not realized, and the stock may be viewed as overvalued.
Second, a general market downturn or recession could particularly hit the stock prices of technology-heavy companies hard. As investors tend to prefer risk-averse investment strategies in uncertain times, they might avoid stocks with high P/E ratios, leading to above-average price losses.
Third, technological innovations and developments are difficult to predict. Potential technological breakthroughs by competitors or in other technology fields could make NVIDIA's products less attractive or obsolete. Such developments could negatively impact NVIDIA's earning power and thus depress its stock price.

Who is Behind GPT2-Chatbot?

Recently, a mysterious AI model named GPT2-Chatbot has caused quite a stir. The burning question in the tech community now is whether this model is in any way connected to OpenAI and whether it might be an early version or a precursor to the anticipated GPT-5.




OpenAI, known for its groundbreaking developments in AI research, has so far released several generations of its famous model, starting with GPT, followed by GPT-2 and GPT-3, and most recently GPT-4. Each new version has been characterized by significant improvements in language processing and application breadth. The mysterious GPT2-Chatbot, which recently emerged and surpasses current models like ChatGPT and Claude in its capabilities, raises the question of whether OpenAI is already working on the next generation or if another entity has independently developed a similar model.

Experts are divided since no concrete information from OpenAI or other well-known developers about the origin of GPT2-Chatbot has been released. This leads to speculations that GPT2-Chatbot could either be an internal development project of OpenAI that has accidentally or as part of a controlled test become public, or that an unknown actor has independently developed an advanced AI that coincidentally uses similar naming as OpenAI's products.

The possibility that GPT2-Chatbot is a covert pre-version of GPT-5 remains a fascinating but unproven theory. Without official confirmations, this assumption remains speculative. The emergence of this model raises important questions about transparency and safety in AI development. It underscores the need for clear labeling and disclosures by developers to avoid misunderstandings and potential security risks.