Eine kürzlich von YouGov durchgeführte Umfrage des AI Policy Institute ergab, dass die Mehrheit der Erwachsenen in den USA die rasante Entwicklung der KI bremsen will.
Der kometenhafte Aufstieg der Künstlichen Intelligenz (KI) ist ungebrochen, und die Investoren investieren viel Geld in diese Technologie. In einer Landschaft, die einst von Microsoft und Google dominiert wurde, gibt es heute eine Vielzahl von Start-ups, darunter Anthropic und Inflection, die beide über erhebliche Unterstützung verfügen.
Metas Ansatz ist leicht differenziert und festigt seine Position als bahnbrechende Kraft in der KI-Wirtschaft, da seine Open-Source-Modelle für Forschung und kommerzielle Nutzung frei zugänglich sind.
Tech-Führungskräfte haben einen enormen Appetit darauf, in unsere KI-getränkte Zukunft vorzudringen, wie der CEO von OpenAI, Sam Altman, in einem Interview erklärte mit The Atlantic"Wenn Sie aus einem liberal-demokratischen Land kommen, sollten Sie den Erfolg von OpenAI bejubeln", anstatt "autoritäre Regierungen".
Brad Smith von Microsoft betonte den Wettbewerbsaspekt und meinte, dass eine Pause Ländern wie China die Möglichkeit geben könnte, die Führung im Bereich der KI zu übernehmen. Ähnlich äußerte sich Nvidia-CEO Jensen Huang sagten diejenigen, die sich nicht anpassen zu KI werden zurückbleiben.
Die Grundsätze des KI-Marktes fördern auch den Kauf von Hardware, um größere und bessere Modelle zu trainieren, wobei Hunderttausende von High-End-Chips von Nvidia mit den USA ausgetauscht werden, Chinaund Golfstaaten.
Öffentliche Ansichten stimmen nicht mit denen der Technologieführer überein
Inmitten dieser Aufregung zeigen Umfragedaten, dass die Menschen nicht unbedingt den Eifer der Big-Tech-Branche teilen. Tatsächlich neigen satte 72% der amerikanischen Wähler dazu, die Entwicklung der KI langsamer voranzutreiben.
An der Umfrage nahmen 1.001 Amerikaner teil, die in Bezug auf ihre politische Zugehörigkeit sehr unterschiedlich waren, auch wenn die Mehrheit der Teilnehmer weiß war und keinen Hochschulabschluss hatte.
Hier sind die Umfragen Ergebnisse:
- 72% der Wähler sprechen sich für eine langsamere Entwicklung der KI aus, während nur 8% für eine schnellere Entwicklung sind.
- Ein signifikanter Anteil von 62% äußert sich besorgt über KI, während 21% sich begeistert zeigen.
- 86% sehen mögliche KI-ausgelöste Katastrophen voraus, und 70% glauben, dass die Minimierung Risiken des Aussterbens von AI ist ebenso wichtig wie andere globale Bedrohungen wie Pandemien und Atomkriege.
- 82% der Wähler vertrauen Tech-Führungskräften in Bezug auf die KI-Regulierung nicht.
- 76% sehen in der KI eine potenzielle existenzielle Bedrohung, wobei 75% der Demokraten und 78% der Republikaner nahezu übereinstimmen.
Der KI-Forscher und Anthropic-CEO Jack Clark fand diese Ergebnisse bemerkenswert und kommentierte: "Diese Ergebnisse sind interessant, weil sie eine Divergenz zwischen der Meinung der Elite und der Meinung der Bevölkerung zu zeigen scheinen."
Darüber hinaus beleuchtet die Umfrage des AI Policy Institute das Vertrauen der Öffentlichkeit in die Selbstregulierungsversuche der KI-Unternehmen.
In der Tat fragen sich viele, ob KI-Führungskräfte wie Sam Altman aufrichtig sind, wenn sie über Ethik und Sicherheitsleitplanken sprechen, wenn man bedenkt, dass Die Klagen häufen sich und es bestehen weiterhin Zweifel an der Rechtmäßigkeit der Ausbildungsdaten.
Sarah Myers West vom AI Now Institute war nicht überrascht: "Ich denke, die Menschen haben aus den letzten zehn Jahren technologiegestützter Krisen gelernt", und wies auf die offensichtlichen Mängel der Selbstregulierung hin.
Andere kritisieren die Selbstregulierung als einen versteckten Versuch, die Unterwerfung der quelloffenen KIDies bedroht den neu entdeckten, aufkeimenden Markt der großen Technologieunternehmen.
Eines ist sicher: Big Tech wird nicht langsamer, denn Unternehmen wie Nvidia und Inflection planen den Aufbau eines riesigen KI-Trainingsstacks mit 22.000 Nvidia-GPUs.
OpenAI hat angemeldete Marken für GPT-5und im Moment gibt es nur einen Weg nach oben - oder, wie manche es sehen, nach unten.