Warum-ChatGPT-die-gefaehrlichste-Propaganda-sein-koennte

Warum ChatGPT die gefährlichste Propaganda sein könnte

Die Propaganda soll die Bevölkerung im Sinne der Mächtigen in eine gewünschte Richtung manipulieren. In dem letzten Jahrhundert wurde sie perfektioniert, sodass der durchschnittlich unbewusst lebende Mensch so leicht steuerbar geworden sein soll wie ein Auto. Neben Nudging, Gaslightning und Framing ist nun jedoch ein neues Phänomen entstanden, welches die künstlichen Intelligenzen betrifft und massive Auswirkungen auf die Gesellschaft haben kann. Lesen Sie jetzt den folgenden Beitrag, um keine wichtigen Informationen zu verpassen und Herr Ihrer eigenen Gedanken zu bleiben!

Propaganda: Ein Blick in die Geschichte

Propaganda ist ein Begriff, der oft negative Assoziationen hervorruft, doch ist sie schon seit Jahrtausenden ein integraler Bestandteil der menschlichen Kommunikation. Ursprünglich bezeichnete „Propaganda” schlicht die Verbreitung von Informationen, Glaubensinhalten oder Ideen. Dies spiegelt sich in der Geschichte der römischen Kirche wider, die im 17. Jahrhundert die „Congregatio de Propaganda Fide” gründete, um den Glauben zu verbreiten.

Doch im Laufe der Zeit, insbesondere im 20. Jahrhundert, hat sich der Begriff durch den Begründer der „Public Releation“ (PR), Edward Bernays, weiterentwickelt, welcher für die Weltkriege die Psyops (Psychologische Operationen) oder auch als psychologische Kriegsführung bekannte Praktiken anwandte. So war es seine Aufgabe, die Meinung der amerikanischen Öffentlichkeit, welche nicht in den Ersten Weltkrieg eintreten wollte, zu ändern. Zudem geht die heutige kapitalistische Konsumgesellschaft auch zum Teil auf ihn zurück.

Propaganda Geschichte

Im Ersten und Zweiten Weltkrieg wurden Propaganda-Techniken von den beteiligten Staaten intensiv genutzt, um die öffentliche Meinung zu beeinflussen, die Moral der eigenen Truppen aufrechtzuerhalten und den Feind zu dämonisieren. Poster, Radiosendungen und Filme wurden als Mittel eingesetzt, um bestimmte Gefühle zu schüren oder die Kriegsanstrengungen zu unterstützen. So werden die Feinde auf beiden Seiten meistens verteufelt und als Terroristen dargestellt, während die eigenen Verbrechen geleugnet oder vertuscht werden. Wie Hiram Johnson meinte: „Das erste Opfer eines jeden Krieges ist die Wahrheit“.

Im Kalten Krieg erreichte die Propaganda eine neue Dimension. Beide Supermächte, die USA und die Sowjetunion, nutzten die Massenmedien, um ihre jeweiligen ideologischen Ansichten zu verbreiten und sich gegenseitig zu diskreditieren.

Nach intensiver Forschung in dem Bereich der Sozialwissenschaften sowie mit dem Aufkommen der digitalen Kommunikation haben sich die Methoden der Propaganda weiterentwickelt. Allerdings bleibt das Grundprinzip: Die Beeinflussung der öffentlichen Meinung durch gezielte Information, Desinformation oder das Enthalten von wichtigen Daten.

Jetzt in fortschrittliche KI-Lösungen investieren!

Die große Gefahr von ChatGPT als götterähnlicher Propagandist

Die-grosse-Gefahr-von-ChatGPT-als-goetteraehnlicher-Propagandist

Eine besonders gefährliche Situation stellt momentan ChatGPT dar, welches leicht als politisches Instrument missbraucht werden könnte. Auch wenn die bisherigen Resultate aufgrund des Abbaus der Qualität immer weniger überzeugend werden, war die KI bis vor den möglichen Regierungseingriffen und eventuell beabsichtigten Qualitätsminderungen besonders überzeugend.

Interagieren Menschen nun mit einer künstlichen Intelligenz mit „götterähnlichem“ Wissen, so wird diese nach und nach als Autorität anerkannt. Ähnlich funktionieren Menschen auch bei Ärzten, da zumindest die Mehrheit ihnen meist ihr Vertrauen schenkt. Denn niemand kann alle Informationen selbst überprüfen, sodass das Gehirn nach einer Abkürzung sucht, um Energie zu sparen. Genau an dieser Stelle kann jedoch der Missbrauch auftreten, wie es auch in vielen anderen Bereichen bereits der Fall ist. Wenn etwa Wissenschaftler der Tabak-Lobby erklären wollten, wie gesund Zigaretten sind.

Allerdings hat kein Mensch einen so alles umfassenden Wissensschatz wie ChatGPT und kann einem zu jeder Uhrzeit so gut wie jede Frage beantworten. Wenn sich die Menschheit langsam an diesen gewöhnt hat, werden sie vermutlich mehr und mehr Entscheidungsgewalt an ihn übergeben. Denn eine künstliche Intelligenz scheint vollständig neutral zu agieren, was im starken Kontrast zu allen Journalisten, Wissenschaftlern, Politikern sowie allen anderen Menschen steht.

Aber was passiert, wenn Menschen dieses Potenzial für ihre eigene politische Agenda missbrauchen?

Haben künstliche Intelligenzen einen politischen Bias?

Haben-kuenstliche-Intelligenzen-einen-politischen-Bias

Ganz nach der Vision des sozialistischen Revolutionärs Rudi Dutschke mit dem „Marsch durch die Institutionen“ ist das linke Meinungsbild mittlerweile zum Mainstream geworden. Wobei das Ziel darin lag, dass die verschiedenen Bereiche wie Bildung, Nachrichten und Politik unterwandert und beeinflusst werden. Ähnliches ist auch heute in der Medienlandschaft feststellbar, wobei selbst künstliche Intelligenzen wie ChatGPT davon betroffen scheinen.

Zwar äußert sich der Chatbot selbst mit den Worten, dass er und das dahinterstehende Unternehmen OpenAI neutral seien, allerdings zeigt, wie zu erwarten war, eine Studie etwas vollkommen anderes auf. Beeindruckenderweise hält ChatGPT selbst an der Behauptung fest, nachdem er mit Beweisen konfrontiert wurde. Denn Politiker haben sich in ihrem Regulierungsbestreben sofort auf die KIs gestürzt, wobei die Vermutung nahe liegt, dass es dabei primär um die eigenen Interessen geht.

Jetzt in gefragte KI-Handelsmodelle investieren!

Ergebnisse der wissenschaftlichen Studie zu ChatGPTs politischer Haltung

Ergebnisse-der-wissenschaftlichen-Studie-zu-ChatGPTs-politischer-Haltung

Computer- und Informationswissenschaftler aus Großbritannien und Brasilien behaupten, dass sie „handfeste Beweise“ für den politischen Bias von KIs haben. So hat ChatGPT ihrer Ansicht nach eine erhebliche politische Voreingenommenheit gegenüber der linken Seite des politischen Spektrums. Veröffentlicht wurde diese Studie am 17. August in der Zeitschrift Public Choice. An ihr beteiligt waren unter anderem Fabio Motoki, Valdemar Pinho Neto und Victor Rodrigues.

Die Wissenschaftler stellten fest, dass von LLMs wie ChatGPT erstellte Texte sachliche Fehler und Vorurteile enthalten können. Das Gefährliche an diesen sei laut den Forschern, dass sie die Leser in die Irre führen und bestehende politische Vorurteile von traditionellen Medien erweitern können. Deswegen sind die Erkenntnisse von besonderer Relevanz für Medien, Politik und Wissenschaft. Dabei soll dieselbe Gefahr der Voreingenommenheit wie bei den traditionellen und sozialen Medien bestehen können, welche die Meinungsvielfalt sowie den demokratischen Diskurs und daher auch die Demokratie gefährden.

Der Algorithmus von ChatGPT ist laut den Ergebnissen der Studie standardmäßig auf die Antworten aus dem demokratischen Spektrum in den USA ausgerichtet. Dabei haben die Wissenschaftler selbst Ansätze probiert, bei den sich ChatGPT in die Rolle von Republikaner versetzen sollte. Jedoch soll dieses Phänomen nicht nur auf die USA beschränkt sein. Denn ebenso werden Lula in Brasilien und die Labour Party in Großbritannien über den KI-Chatbot propagiert. Laut der Ansicht der Wissenschaftler handelt es sich dabei um eine Verzerrung und kein mechanisches Ereignis.

Allerdings können diese die Quelle der politischen Voreingenommenheit nur schwer bestimmen. Selbst in einer Art von Entwicklermodus behauptet der Chatbot, dass ChatGPT und OpenAI unvoreingenommen seien. Zurückzuführen sei dies möglicherweise auf die Trainingsdaten und den Algorithmus selbst.

Jetzt in innovative KI-Handelsplattform investieren!

Weitere Gefahren künstlicher Intelligenzen in der Politik

Weitere-Gefahren-kuenstlicher-Intelligenzen-in-der-Politik

Ebenso stellen künstliche Intelligenzen aber auch weitere Gefahren für die Politik dar. Denn mittlerweile kann jeder mit wenigen Mausklicks eigene Deepfake-Videos von Personen inklusive deren Stimme erstellen. Somit wird es für die normale Bevölkerung immer schwieriger, Fakt von Realität zu unterscheiden – sowohl bei realen als auch bei manipulierten Medien. Dies verstärkt die wahrgenommene politische Ohnmacht der Bevölkerung noch mehr und überlässt die Macht somit noch mehr den Politikern, welche oft entgegen dem Willen der Bevölkerung handeln, wie es Studien von etwa der Princeton University und der Northwestern University in den USA sowie Meinungsforschungen nahelegen.

Politische Reaktionen auf künstliche Intelligenzen

Der Leiter der „AI Working Group“ und Demokrat, Derek Kilmer, sei merkwürdigerweise angeblich besorgt über die Verbreitung von Fehlinformationen, obwohl die künstlichen Intelligenzen doch ganz im Sinne der linken Demokraten agieren.

Zudem scheint es sehr unrealistisch, dass Politiker bei einem so entscheidenden Thema so lange gewartet und es bis dahin dem Zufall überlassen haben. Kilmer will sich nun weiter mit den Problemen befassen. Jedoch gab es schon zuvor Treffen von US-Präsident Joe Biden mit führenden KI-Experten im Silicon Valley. Somit kann also eine Beeinflussung schon lange stattgefunden haben.

Jetzt frühzeitig in KI-Boom investieren!

Fazit zur KI-Regulierung und dem Missbrauch für Propaganda

Zwar haben die politischen Regulierungen mit Sicherheit auch ihre positiven Effekte, wenn es um den Schutz der Bevölkerung geht. Jedoch sollten Einschränkungen der Meinungsvielfalt und damit der Demokratie mit größer Vorsicht betrachtet werden. Ansonsten könnten Diktatoren ihre Macht mit künstlichen Intelligenzen leichter zementieren. Dabei haben sie dieselbe Gefahr wie öffentlich-rechtliche Nachrichten, welche vorgeben, neutral zu sein, jedoch meist eher von Aktivisten als Journalisten verbreitet werden, wie unter anderem Operation Mockingbird beweist. Es ist daher wichtiger denn je, sich dieser Techniken bewusst zu sein und sie kritisch zu hinterfragen, um eine informierte und eigenständige Meinung bilden zu können.

Künstliche Intelligenzen bieten revolutionäres Potenzial im Finanzbereich

KI-Revolution-Was-Privatinvestoren-jetzt-wissen-muessen

Es gibt jedoch noch andere Bereiche, in welchen künstliche Intelligenzen ein beeindruckendes Potenzial bieten. Beispielsweise nutzt sie yPredict für Analyse und Handelsmodelle, damit Investoren einen statistischen Vorteil erzielen können, um somit die Verluste minimieren und die Gewinne maximieren zu können. Aber auch Launchpad XYZ verfolgt mit seinen bahnbrechenden KI-Modellen einen ähnlichen Ansatz, welches über 400 Datenpunkte verwendet und noch wesentlich mehr bietet.

Jetzt moderne KI-Handelslösungen entdecken!

Investieren ist spekulativ. Bei der Anlage ist Ihr Kapital in Gefahr. Diese Website ist nicht für die Verwendung in Rechtsordnungen vorgesehen, in denen der beschriebene Handel oder die beschriebenen Investitionen verboten sind, und sollte nur von Personen und auf gesetzlich zulässige Weise verwendet werden. Ihre Investition ist in Ihrem Land oder Wohnsitzstaat möglicherweise nicht für den Anlegerschutz geeignet. Führen Sie daher Ihre eigene Due Diligence durch. Diese Website steht Ihnen kostenlos zur Verfügung, wir erhalten jedoch möglicherweise Provisionen von den Unternehmen, die wir auf dieser Website anbieten. Zudem ist der Autor möglicherweise selbst in die Vermögenswerte investiert, wodurch ein Interessenkonflikt entstehen kann.

Über den Autor: Simon Feldhusen kam vor 17 Jahren das erste Mal mit der Börse in Berührung und beschäftigt sich seit mehr als 8 Jahren täglich intensiv mit den Themen Trading, Kryptoassets, Aktien, P2P, Unternehmensfinanzierung, Finanzen und Unternehmertum. Zudem ist er seit mehreren Jahren als Texter und Ghostwriter im Finanzbereich tätig. In dieser Zeit hat er sich ein diversifiziertes Wissen über unterschiedliche Fortbildungen über die Finanzmärkte und das Verfolgen der täglichen Nachrichten angeeignet. Seitdem vergeht kein Tag, an dem er sich nicht mit den Märkten auseinandergesetzt hat. Er publiziert unter anderem für Finanzen.net, ETF-Nachrichten.de, Coincierge.de und P2E-News.com.

Leave a Comment

Your email address will not be published. Required fields are marked *