Amerikaner vertrauen künstlicher Intelligenz nicht, obwohl die Nutzung rasant ansteigt

Eine detaillierte Illustration, die die komplexe Beziehung zwischen Amerikanern und künstlicher Intelligenz darstellt, mit künstlicher Intelligenz im Fokus

Die meisten Amerikaner nutzen künstliche Intelligenz, doch die meisten von ihnen vertrauen ihr nicht. Dieser Widerspruch ist das zentrale Thema mehrerer großer Umfragen, die diese Woche veröffentlicht wurden und ein Bild einer Öffentlichkeit zeichnen, die eine Technologie integriert hat, der sie tief misstraut.

Amerikaner vertrauen künstlicher Intelligenz nicht, trotz Rekordnutzungsrate

Eine Umfrage der Quinnipiac University unter fast 1.400 Amerikanern ergab, dass 76% sagen, sie vertrauen künstlicher Intelligenz selten oder nur manchmal. Nur 21% sagen, sie vertrauen ihr meistens oder fast immer – eine auffallende Zahl, wenn man bedenkt, wie sehr die Technologie in den täglichen Arbeitsabläufen verankert ist.

Die Daten deuten darauf hin, dass Vertrautheit nicht in Vertrauen umgewandelt wird. Je mehr Amerikaner künstlicher Intelligenz ausgesetzt sind, desto mehr Bedenken scheinen sie zu entwickeln – ein Muster, das die Adoptionsnarrative der Branche unter Druck setzt.

Die Quinnipiac-Professorin Tamilla Triantoro, die sich auf Business-Analytics und Informationssysteme spezialisiert hat, stellte fest, dass jüngere Amerikaner die höchste Vertrautheit mit künstlicher Intelligenz aufweisen, aber auch die geringsten Erwartungen an den Arbeitsmarkt haben. Diese Kombination – hohe Nutzung, geringe Hoffnung – ist ein Warnsignal für alle, die darauf wetten, dass der Generationswechsel den öffentlichen Widerstand glätten wird.

Angst um den Arbeitsplatz ist konkret, nicht abstrakt

Die Angst um den Arbeitsplatz ist nicht vage. Laut der gleichen Quinnipiac-Umfrage glauben 70% der Befragten, dass Fortschritte in der künstlichen Intelligenz zu weniger Arbeitsplätzen führen werden. Unter den derzeit beschäftigten Amerikanern sagen 30%, sie seien sehr oder ziemlich besorgt, dass künstliche Intelligenz ihren spezifischen Arbeitsplatz überflüssig machen wird.

Nur 15% der Amerikaner sagen, sie würden unter einem künstlichen Intelligenz-Vorgesetzten arbeiten, der Aufgaben zuweist und Termine festlegt. Die überwiegende Mehrheit lehnt diese Vereinbarung rundweg ab, obwohl Unternehmen stillschweigend auf mehr automatisierte Management-Ebenen umsteigen.

Die Angst ist nicht gleichmäßig verteilt. Arbeitnehmer in Rollen mit höherer künstlicher Intelligenz-Exposition sind eher bereit, Angst zu melden, während diejenigen, die weiter von direktem künstlichen Intelligenz-Kontakt entfernt sind, sich immer noch um systemische Auswirkungen auf Einstellungen und Löhne sorgen.

Regulierung wird gewollt, aber die Kompromisse sind schwer zu akzeptieren

Eine separate nationale Umfrage des AI-Governance-Non-Profit-Unternehmens Fathom, exklusiv mit Axios geteilt, ergab, dass fast zwei Drittel der Amerikaner künstliche Intelligenz wöchentlich oder öfter nutzen. Die gleiche Gruppe will überwältigend stärkere Aufsicht – aber sträubt sich, wenn sie gezwungen wird, die Kompromisse zu akzeptieren, die die Regulierung erfordern würde.

Unter den Befragten sagen 40%, sie seien aufgeregt über künstliche Intelligenz, während 23% sich besorgt beschreiben. Diese Lücke ist enger als die Branche es bevorzugen würde, und sie kommt mit einer Bedingung: Die Menschen wollen, dass die Politiker Sicherheitsvorkehrungen aufrechterhalten, ohne die US-Dominanz im globalen Wettbewerb um künstliche Intelligenz aufzugeben.

Das ist eine schwierige Reihe von Forderungen, die gleichzeitig zu erfüllen sind. Striktere Regeln verlangsamen die Bereitstellung; lockerere Regeln füttern das Misstrauen, das die Umfragen ständig messen. Washington hat noch keine Formel gefunden, die den Widerspruch auflöst.

Branchenoptimismus kollidiert mit öffentlicher Meinung

Auf dem Axios AI+DC-Gipfel letzte Woche argumentierte Meta-Vizepräsidentin und Vorsitzende Dina Powell McCormick, dass die USA in wenigen Jahren eine völlig neue Arbeitskraft für künstliche Intelligenz benötigen werden, um wettbewerbsfähig zu bleiben. Sie stellte künstliche Intelligenz als eine gleichmachende Kraft dar – ein weitgehend erschwingliches Werkzeug, das den Zugang zu Branchen und potenziellen Arbeitsplätzen demokratisieren kann.

Diese Darstellung hat nicht bei der Öffentlichkeit angekommen. Senator Mark Warner (D-Va.) zitierte Daten, die zeigen, dass künstliche Intelligenz bei den Amerikanern unbeliebter ist als ICE. Er argumentierte, dass künstliche Intelligenz-Unternehmen eine positive Kraft sein können, aber wirklich mit der Art und Weise umgehen müssen, wie die Öffentlichkeit die Technologie erlebt, die in ihr tägliches Leben eindringt.

Der wissenschaftliche und technologische Berater des Weißen Hauses, Michael Kratsios, behauptete, dass die Trump-Regierung aggressive künstliche Intelligenz-Entwicklung verfolgen kann, während sie gleichzeitig öffentliche Bedenken anspricht. Er fügte hinzu, dass Präsident Trump große Technologieunternehmen zusammengebracht hat, um zu vereinbaren, dass jedes neue Rechenzentrum, das sie bauen, mit einer eigenen dedizierten Stromquelle ausgestattet sein muss – eine Reaktion auf die wachsende Angst um die Auswirkungen von künstlicher Intelligenz auf die Stromrechnungen der Verbraucher.

Adobes Chief Legal Officer Louise Pentland wandte sich gegen Verdrängungsnarrative und erklärte rundweg, dass künstliche Intelligenz menschliche Kreativität nicht ersetzt. Anthropics Leiterin für öffentliche Politik, Sarah Heck, fügte hinzu, dass künstliche Intelligenz zunehmend auf eine Weise eingesetzt wird, die Rollen ergänzt, anstatt sie zu eliminieren. Beide Positionen spiegeln wider, was die Branche der Öffentlichkeit glauben machen will – aber die Umfragen deuten darauf hin, dass die Botschaft nicht durchkommt.

Was zu beobachten ist, während die Vertrauenslücke wächst

Die zentrale Frage ist, ob die Einführung ohne Vertrauen nachhaltig ist. National Reviews Analyse des Umfragenlandschafts beschreibt künstliche Intelligenz als eine der unbeliebtesten Kräfte im amerikanischen Leben – eine Charakterisierung, die sowohl Entwickler als auch Unternehmen, die Mitarbeiter für die effektive Bereitstellung benötigen, beunruhigen sollte.

Für Geschäftsentscheider ist die Implikation direkt. Die Einführung von künstlicher Intelligenz-Tools in Organisationen, in denen 76% der Belegschaft skeptisch ist und 30% Angst vor Arbeitsplatzverlust hat, ist keine neutrale Handlung. Widerstand, Umgehungen und reduzierte Ausgabequalität sind wahrscheinliche Ergebnisse ohne bewusste Vertrauensaufbausstrategien.

Das politische Fenster verengt sich auch. Staatslegislativen und Bundesbehörden diskutieren aktiv regulatorische Rahmenbedingungen, und das öffentliche Misstrauen ist der Wind in den Segeln restriktiverer Vorschläge. Unternehmen, die Sentiment-Daten ignorieren, tun dies auf eigene Gefahr.

FAQ – Häufig gestellte Fragen

  • Wie können sich Einzelpersonen auf einen von künstlicher Intelligenz geprägten Arbeitsmarkt vorbereiten?
    Um sich vorzubereiten, können Einzelpersonen sich auf die Entwicklung von Fähigkeiten konzentrieren, die künstlicher Intelligenz ergänzen, wie z.B. kritisches Denken, Kreativität und emotionale Intelligenz. Online-Kurse und Schulungsprogramme in künstlicher Intelligenz, Data Science und Analytics können auch nützlich sein. Darüber hinaus kann der Aufbau eines professionellen Netzwerks und die Anpassungsfähigkeit Einzelpersonen helfen, die sich verändernde Arbeitslandschaft zu meistern.
  • Welche möglichen Konsequenzen haben strengere künstliche Intelligenz-Regulierungen für die Innovation?
    Strengere künstliche Intelligenz-Regulierungen könnten zu höheren Kosten und Komplexität für Unternehmen führen, die künstliche Intelligenz-Technologien entwickeln, was das Tempo der Innovation verlangsamen könnte. Regulierungen könnten jedoch auch die Entwicklung von transparenteren und erklärbaren künstlichen Intelligenz-Systemen vorantreiben, was letztendlich zu mehr vertrauenswürdigen und weit verbreiteten Technologien führen könnte.
  • Gibt es Branchen, die von der Automatisierung durch künstliche Intelligenz weniger betroffen sein werden?
    Branchen, die menschliches Einfühlungsvermögen, Kreativität und komplexe Problemlösung erfordern, wie z.B. Gesundheitswesen, Bildung und Sozialarbeit, könnten von der Automatisierung durch künstliche Intelligenz weniger betroffen sein. Darüber hinaus könnten Branchen, die hochvariable oder unvorhersehbare Aufgaben beinhalten, wie z.B. qualifizierte Handwerke und Bauwesen, auch weniger anfällig für Automatisierung sein.

Laszlo Szabo / NowadAIs

Laszlo Szabo is an AI technology analyst with 6+ years covering artificial intelligence developments. Specializing in large language models, ML benchmarking, and Artificial Intelligence industry analysis

Categories

Follow us on Facebook!

Eine konzeptionelle Illustration, die digitale Zwillinge im Gesundheitswesen zeigt, die durch eine erhebliche "Datenbereitschaftslücke" behindert werden - digitale Zwillinge
Previous Story

Digitale Zwillinge im Gesundheitswesen: Die Datenbereitschaftslücke

Anthropic Claude User Interface prompt bar with categories like Write, Learn, Code, and Life stuff.
Next Story

Anthropic Claude Source Code Leak: What the Code Exposes and What It Hides

Latest from Blog

Go toTop