Die CEOs von OpenAI, Google DeepMind und Anthropic haben alle unterzeichnet.
Geschrieben von: Katie
Ein weiterer hochkarätiger offener Brief, der vor den Risiken der KI warnt, ist hier. Dieser Brief ist kurz, aber brisant: Die Eindämmung des von der KI ausgehenden Risikos des Aussterbens sollte dasselbe sein wie die Bewältigung anderer gesellschaftlicher Risiken wie Epidemien und Atomkrieg. zu einer globalen Priorität werden.
Am 30. Mai erschien diese Aussage mit nur 22 Wörtern im Originaltext auf der offiziellen Website der amerikanischen Non-Profit-Organisation „Center for AI Safety“, und mehr als 350 Prominente aus Wirtschaft und Wissenschaft haben sich mit der KI beschäftigt Feld sprach dafür. Zeichen.
Verglichen mit dem offenen Brief des „Future of Life Institute“ vor zweieinhalb Monaten, in dem Tausende von Unterschriften eine „Aussetzung der Ausbildung großer Models für 6 Monate“ forderten, ist das Auffälligste, dass dieses Mal OpenAI, Google DeepMind und der CEO von Anthropic haben unterzeichnet.
Es ist erwähnenswert, dass die Leiter von OpenAI, Google und Anthropic vor der Unterzeichnung der „22-Zeichen-Erklärung“ alle an der vom Weißen Haus initiierten AI Risk Governance-Konferenz am 4. Mai teilgenommen haben. Angesichts des Risikomanagements scheinen die KI-Giganten in letzter Zeit besorgter zu sein als die Regierung.
In letzter Zeit haben sich die CEOs dieser drei Unternehmen häufig mit den Staats- und Regierungschefs vieler europäischer Länder getroffen, um Einfluss auf das laufende EU-Gesetz über künstliche Intelligenz zu nehmen. Das „Neuland“, das der Mythenmacher OpenAI noch nicht erobert hat.
Hinter der Notwendigkeit, KI-Risiken zu verwalten und zu kontrollieren, steht der „Überlebenswille“ der KI-Unternehmen auf dem gesamten Markt.
„Die Eindämmung des Risikos des Aussterbens durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein.“
22 Wörter bilden ein Stück „Künstliche Intelligenz-Risikoerklärung“, in dem die durch KI verursachten Risiken direkt als „Aussterben“ formuliert werden, was in seiner Schwere mit „Pandemien“ und „Atomkrieg“ vergleichbar ist. Die Dringlichkeit der Kontrolle wurde mit „sollte sein“ ausgedrückt eine globale Priorität“.
Am 30. Mai unterzeichneten mehr als 350 Personen, darunter Wissenschaftler und Wirtschaftsführer, die auf der offiziellen Website der gemeinnützigen Organisation „Center for AI Safety“ veröffentlichte Erklärung.
Die Namen der CEOs der AI Big Three erscheinen in der Liste
„Wir müssen dieses Thema offen ansprechen, weil viele Menschen nur schweigend miteinander reden“, sagte Dan Hendrycks, Geschäftsführer des Center for Artificial Intelligence Safety, über den Zweck der Erklärung. Die Kürze der Die Erklärung sollte eine „breite Koalition“ von Wissenschaftlern ermöglichen, von denen sich einige möglicherweise noch nicht darüber einig sind, welche Risiken KI mit sich bringt und welche Lösungen sie am besten verhindern können.
Die ersten beiden der 350 Unterschriften waren die Turing-Award-Gewinner Geoffrey Hinton und Youshua Bengio, gefolgt von Demis Hassabis ( Demis Hassabis, Sam Altman und Dario Amodei sind die CEOs von Google DeepMind, OpenAI und Anthropic, drei weltbekannten Unternehmen für die Entwicklung künstlicher Intelligenz.
Einige bekannte chinesische Wissenschaftler unterzeichneten ebenfalls, darunter Zhang Yaqin, Dekan des Instituts für Intelligente Industrie der Tsinghua-Universität, Professor Zeng Yi vom Institut für Automatisierung der Chinesischen Akademie der Wissenschaften und Zhan Xianyuan, außerordentlicher Professor des Instituts für Intelligente Industrie der Tsinghua-Universität.
Wenn „der Menschheit mit Wissen zu dienen“ als die soziale Verantwortung von Intellektuellen angesehen wird, sind die Unterschriften von Experten und Wissenschaftlern leicht zu verstehen. Hinton, bekannt als „Godfather of AI“, trat im April dieses Jahres von Google zurück und hat sich dazu geäußert seine Missbilligung in der Öffentlichkeit seitdem. Besorgnis darüber, dass künstliche Intelligenz außer Kontrolle gerät; Bengio unterzeichnete den offenen Brief „Pause on Giant AI Experiments“, der im März dieses Jahres vom gemeinnützigen Future of Life Institute veröffentlicht wurde.
Allerdings unterzeichneten die Chefs der drei Unternehmen Google DeepMind, OpenAI und Anthropic den Brief vor zwei Monaten nicht. Im Vergleich zur „22-stelligen Erklärung“ dieses Mal ging der Brief auch auf die möglichen Auswirkungen von KI ein. Verschiedenes Obwohl sie konkrete Risiken befürworteten und sogar klare Grundsätze für das Risikomanagement vorlegten, wurden bisher 31.810 Unterschriften gesammelt.
Die klare Meinungsverschiedenheit in der KI-Community, die durch den letzten Brief ausgelöst wurde, ist die Frage, ob KI-Experimente aus Risikogründen auf Eis gelegt werden sollten oder nicht.
Damals sagte Wu Enda, ein Wissenschaftler auf dem Gebiet der künstlichen Intelligenz, auf LinkedIn, dass die Idee, das KI-Training für sechs Monate auszusetzen, eine schlechte und unrealistische Idee sei. Später drückte Sam Altman, CEO von OpenAI, Sam Altman, die Sinnlosigkeit der Aussetzung intuitiver aus: „Wir suspendieren für 6 Monate, was dann? Wir suspendieren für weitere 6 Monate?“
Aber dieses Mal übernahmen die Führungskräfte der drei Giganten der KI-Unternehmen die Führung und unterzeichneten diese „22-stellige Erklärung“ mit vagen, aber strengen Formulierungen zu Risiken. Aus ihrer Anerkennung der Erklärung machten sie die Dringlichkeit der Kontrolle von KI-Risiken deutlich.
Was hat dazu geführt, dass KI-Unternehmen in nur zweieinhalb Monaten ihre Einstellung geändert haben?
Auch wenn die Menschheit nicht durch KI ausgestorben ist, hat die generative KI ihre „dunkle Seite“ offenbart, die von Tätern gesteuert wird.
Beispielsweise wird die Nachahmung von Ton und Aussehen durch KI als Betrugsinstrument eingesetzt, und die Fähigkeit der KI, Bilder und Texte zu generieren, wird nicht nur zur Fälschung von Nachrichten genutzt, sondern schafft auch „gelbe Gerüchte“, die dem Ruf gewöhnlicher Menschen direkt schaden .
Verglichen mit dem „Unsinn“ generativer KI für den gesunden Menschenverstand, dem Fallen in logische Fallen, der mangelnden Fähigkeit, mathematische Probleme zu lösen, dem Datenschutz und der Sicherheit sowie anderen Mängeln, ist die zerstörerische Kraft der KI, die sich in den Opferfällen zeigt, konkreter und wird den Opfern intuitiver dargestellt öffentlich. Für KI-Entwicklungsunternehmen besteht die direkteste Auswirkung darin, dass Entwicklungsunternehmen, die gerade KI-Anwendungen für die Öffentlichkeit zugänglich gemacht haben, wie viel zusätzlichen Markt können sie angesichts der negativen öffentlichen Meinung gewinnen?
Nehmen wir als Beispiel OpenAI, das die Textgenerierungsanwendung ChatGPT bereitstellt, die die am schnellsten wachsende Zahl an Besuchen verzeichnet. Die Besuche ihrer Webseiten sind von etwa 20 Millionen Mal pro Monat im Herbst letzten Jahres auf 1,8 Milliarden Mal im April 2023 gestiegen. Erfrischung des Mythos vom wachsenden Internetverkehr. . Laut Daten des Webanalyseunternehmens SimilarWeb wachsen die Webseitenbesuche von OpenAI jedoch langsamer.
Das Wachstum des Web-Traffics von OpenAI verlangsamt sich
Der Traffic-Beitrag von OpenAI-Webseiten kommt hauptsächlich aus den Vereinigten Staaten und macht 10,25 % aus, gefolgt von Indien (8,82 %), Japan (7,48 %), Indonesien (3,84 %) und Kanada (3,06 %). Der Anstieg der Besuche aus Japan ist mit 28,86 % am größten. Allerdings haben Russland, China und europäische Länder im Grunde keinen offensichtlichen Datenverkehr dazu beigetragen, und Internetnutzer in diesen Ländern und Regionen haben nur begrenzten Zugriff auf OpenAI.
OpenAI hat diese Märkte von selbst abgeschnitten. Der Hauptgrund dafür ist, dass die Länder unterschiedliche Verwaltungsrichtlinien im Internet haben. Im Vergleich zu Russland und China scheint Europa ein attraktiverer Markt für Unternehmen im Bereich der künstlichen Intelligenz zu sein. Die Europäische Union hat jedoch klar definierte Gesetze für künstliche Intelligenz.
Seitdem sind die CEOs von OpenAI, DeepMind und Anthropic alle in Europa aufgetreten.
Am 27. April erzielten die Mitglieder des Europäischen Parlaments eine vorläufige politische Einigung über einen Vorschlag für ein Gesetz über künstliche Intelligenz. Am 11. Mai verabschiedeten zwei Ausschüsse des Europäischen Parlaments den Entwurf eines Verhandlungsmandats für den Vorschlag zum Gesetzentwurf zur künstlichen Intelligenz (im Folgenden als „Gesetzentwurf“ bezeichnet). Der Entwurf wird der Plenarsitzung des Europäischen Parlaments vom 12. bis 15. Juni zur Abstimmung vorgelegt. Anschließend wird das Europäische Parlament mit dem Rat der Europäischen Union über die endgültige Form des Gesetzes verhandeln.
Der Gesetzgeber kategorisierte in dem Gesetzentwurf verschiedene KI-Tools nach ihrem Risikograd, von minimal bis begrenzt, hoch und inakzeptabel. Regierungsbehörden und Unternehmen, die diese Tools nutzen, unterliegen je nach Risikograd unterschiedlichen Verpflichtungen. Der Gesetzentwurf wird außerdem „Systeme der künstlichen Intelligenz, die inakzeptable Risiken für die menschliche Sicherheit darstellen“, strikt verbieten, einschließlich Systemen, die absichtlich Technologie manipulieren, menschliche Schwächen ausnutzen oder Bewertungen auf der Grundlage von Verhalten, sozialem Status und persönlichen Merkmalen vornehmen.
Wenn das „Gesetz“ erfolgreich verabschiedet wird, wird dies das erste Gesetz in der Geschichte der Menschheit sein, das auf künstliche Intelligenz abzielt. Da das „Gesetz“ für alle Systeme der künstlichen Intelligenz gilt, die in der Europäischen Union betrieben werden, werden amerikanische Unternehmen, die in der KI-Technologie führend sind, offensichtlich mit Einschränkungen konfrontiert sein, wenn sie in den europäischen Markt eintreten wollen.
Beispielsweise verpflichtet das Gesetz Unternehmen, die generative KI-Tools entwickeln, offenzulegen, ob sie urheberrechtlich geschütztes Material in ihren Systemen verwenden. Für KI-Unternehmen, die große Modelle mit riesigen Datenmengen aus verschiedenen Quellen trainieren, wird diese Anforderung sie einfach von Europa fernhalten.
OpenAI, DeepMind und Anthropic haben alle begonnen, auf europäische Trends zu achten.
Ende Mai reiste OpenAI-CEO Sam Altman mehrmals nach Europa und führte Gespräche mit den Regierungschefs Spaniens, Polens, Frankreichs und des Vereinigten Königreichs, um über Entwicklungspotenzial, Bedrohungen und Regulierung künstlicher Intelligenz zu diskutieren. Demis Hassabis, CEO von DeepMind, und Dario Amoudi, CEO von Anthropic, trafen sich auch mit dem britischen Premierminister Sunak.
Der britische Premierminister Sunak trifft die CEOs der AI Big Three
Durch die Kommunikation mit europäischen Staatsoberhäuptern versuchen KI-Technologieunternehmen, Einfluss auf den Prozess des Gesetzes zu nehmen. Darüber hinaus nutzte Sam Altman auch verschiedene Methoden wie Reden und Interviews, um sich an die europäische Öffentlichkeit zu wenden, in der Hoffnung, dass die „öffentliche Meinung“ hinter ihr stehen würde.
In einer Rede am University College London blieb Altman bei seinem Standpunkt: Die Bedenken der Menschen gegenüber KI sind berechtigt, aber die potenziellen Vorteile von KI sind weitaus größer. In Bezug auf die KI-Regulierung sagte Altman, dass OpenAI die Regulierung begrüße, aber „den richtigen Weg zur Regulierung“ benötige, weil „eine Überregulierung kleinen Unternehmen und der Open-Source-Bewegung schaden kann“.
Am 25. Mai äußerte Altman gegenüber britischen Medien seine Ansichten zum „Gesetz“: „Viele Formulierungen sind unangemessen.“ Er glaubt, dass der aktuelle Entwurf des EU-KI-Gesetzes zu einer übermäßigen Regulierung führen wird, „aber wir hören zu.“ Er sagte, es würde angepasst. und sie reden immer noch darüber.
Es ist weniger als einen halben Monat bis zur endgültigen Abstimmung über den „Gesetzentwurf“, Altmans „Lobbytour“ geht noch weiter. Öffentlichen Informationen zufolge wird sich Altman als nächstes mit dem EU-Industriechef Thierry Breton (Thierry Breton) treffen, um zu besprechen, wie die EU Regeln umsetzen soll, die im Bereich der künstlichen Intelligenz weltweit führend sind.
Nach einer Reihe von Europareisen unterzeichneten die drei CEOs der AI Big Three die „22-Zeichen-Erklärung“ und stimmten der Aussage zu, dass in der Erklärung die globale Priorität der Kontrolle von KI-Risiken dargelegt sei. Hinter der Geste steckt der „Überlebenswille“ von KI-Unternehmen, die versuchen, den Markt unter Kontrolle zu bringen.