OpenAI, Anthropic, and Google Urge Action as US AI Lead Diminishes

Toonaangevende Amerikaanse kunstmatige inlichtingenbedrijven Openai, Anthropic en Google hebben de federale overheid gewaarschuwd dat de technologische voorsprong van Amerika in AI “niet breed is en beperken”, omdat Chinese modellen zoals Deepseek R1 toenemende mogelijkheden aantonen, volgens documenten die aan de Amerikaanse overheid zijn ingediend als reactie op een verzoek om informatie over het ontwikkelen van een AI -actieplan.
Deze recente inzendingen van maart 2025 benadrukken dringende zorgen over nationale veiligheidsrisico’s, economisch concurrentievermogen en de noodzaak van strategische wettelijke kaders om het Amerikaanse leiderschap in AI-ontwikkeling te handhaven te midden van de groeiende wereldwijde concurrentie en de door de staat door de staat gesubsidieerde vooruitgang in het veld. Antropisch En Google diende hun antwoorden in op 6 maart 2025, terwijl Openai’s inzending gevolgd op 13 maart 2025.
De China Challenge en Deepseek R1
De opkomst van het Deepseek R1 -model van China heeft een grote bezorgdheid veroorzaakt bij grote Amerikaanse AI -ontwikkelaars, die het niet als superieur aan de Amerikaanse technologie beschouwen, maar als overtuigend bewijs dat de technologische kloof snel sluit.
Openai waarschuwt expliciet dat “Deepseek laat zien dat onze voorsprong niet breed is en kleiner is”, het model karakteriseert als “tegelijkertijd door de staat gesubsidieerde, door de staat gecontroleerde en vrij beschikbaar”-een combinatie die ze bijzonder bedreigend beschouwen voor Amerikaanse belangen en wereldwijde AI-ontwikkeling.
Volgens de analyse van Openai vormt Deepseek risico’s vergelijkbaar met die geassocieerd met de Chinese telecommunicatiegigant Huawei. “Net als bij Huawei is er een aanzienlijk risico bij het opbouwen van de dieptepuntmodellen in kritieke infrastructuur en andere risicovolle use cases gezien het potentieel dat Deepseek door de CCP zou kunnen worden gedwongen om zijn modellen te manipuleren om schade te veroorzaken,” verklaarde Openai in de indiening ervan.
Het bedrijf bracht verder bezorgdheid uit over gegevensprivacy en beveiliging, en merkte op dat Chinese voorschriften Deepseek zouden kunnen vereisen om gebruikersgegevens met de overheid te delen. Dit zou de Chinese Communistische Partij in staat kunnen stellen om meer geavanceerde AI -systemen te ontwikkelen die zijn afgestemd op staatsbelangen en tegelijkertijd de individuele privacy in gevaar brengen.
De beoordeling van Anthropic richt zich sterk op de implicaties van bioveiligheid. Hun evaluatie bleek dat Deepseek R1 “voldoet aan het beantwoorden van de meeste biologische bewapende vragen, zelfs wanneer het wordt geformuleerd met een duidelijk kwaadaardige intentie.” Deze bereidheid om potentieel gevaarlijke informatie te bieden, staat in tegenstelling tot veiligheidsmaatregelen die worden geïmplementeerd door leidende Amerikaanse modellen.
“Hoewel Amerika vandaag een voorsprong op AI onderhoudt, laat Deepseek zien dat onze voorsprong niet breed is en vernauwt,” weergalmde antropisch in zijn eigen onderwerping, waardoor de dringende toon van de waarschuwingen werd versterkt.
Beide bedrijven kaderen de concurrentie in ideologische termen, waarbij Openai een wedstrijd beschrijft tussen door de Amerikaanse geleide ‘Democratische AI’ en Chinese ‘autocratische, autoritaire AI’. Ze suggereren dat Deepseek’s gerapporteerde bereidheid om instructies te genereren voor “illegale en schadelijke activiteiten zoals identiteitsfraude en diefstal van intellectuele eigendom” weerspiegelen fundamenteel verschillende ethische benaderingen van AI -ontwikkeling tussen de twee naties.
De opkomst van Deepseek R1 is ongetwijfeld een belangrijke mijlpaal in de wereldwijde AI -race, die de groeiende capaciteiten van China aantoont, ondanks de Amerikaanse exportcontroles op geavanceerde halfgeleiders en de urgentie van gecoördineerde overheidsactie te benadrukken om het Amerikaanse leiderschap in het veld te behouden.
Implicaties van de nationale veiligheid
De inzendingen van alle drie bedrijven benadrukken aanzienlijke zorgen over de nationale veiligheid die voortvloeien uit geavanceerde AI -modellen, hoewel ze deze risico’s vanuit verschillende hoeken benaderen.
De waarschuwingen van Openai richten zich sterk op het potentieel voor CCP -invloed op Chinese AI -modellen zoals Deepseek. Het bedrijf benadrukt dat de Chinese voorschriften deepseek kunnen dwingen om “kritieke infrastructuur en gevoelige toepassingen in gevaar te brengen” en vereist dat gebruikersgegevens worden gedeeld met de overheid. Deze gegevensuitwisseling kan de ontwikkeling van meer geavanceerde AI-systemen mogelijk maken die zijn afgestemd op de staatsbelangen van China, waardoor zowel onmiddellijke privacykwesties als langetermijnbeveiligingsbedreigingen worden gecreëerd.
De zorgen van Anthropic zijn gericht op bioveiligheidsrisico’s van geavanceerde AI -mogelijkheden, ongeacht hun land van herkomst. In een bijzonder alarmerende openbaarmaking onthulde Anthropic dat “ons meest recente systeem, Claude 3.7 Sonnet, aantoont over verbeteringen in zijn vermogen om aspecten van de ontwikkeling van biologische wapens te ondersteunen.” Deze openhartige toelating onderstreept de aard van het dubbele gebruik van geavanceerde AI-systemen en de noodzaak van robuuste waarborgen.
Anthropic identificeerde ook wat zij beschrijven als een “regulerende kloof in Amerikaanse chipbeperkingen” gerelateerd aan de H20 -chips van Nvidia. Hoewel deze chips voldoen aan de verminderde prestatievereisten voor de Chinese export, “blinken ze uit in tekstgeneratie (‘bemonstering’) – een fundamenteel onderdeel van geavanceerde versterkingsmethoden die cruciaal zijn voor de huidige vooruitgang van het frontiermodel.” Anthropic drong aan op “onmiddellijke regulerende actie” om deze potentiële kwetsbaarheid in de huidige exportcontrolekaders aan te pakken.
Google erkent, terwijl hij AI -beveiligingsrisico’s erkent, pleit voor een meer evenwichtige aanpak voor exportcontroles. Het bedrijf waarschuwt dat de huidige AI -exportregels “de doelen van het economische concurrentievermogen kunnen ondermijnen … door onevenredige lasten op te leggen aan Amerikaanse cloudserviceproviders.” In plaats daarvan beveelt Google aan “evenwichtige exportcontroles die de nationale veiligheid beschermen en tegelijkertijd de Amerikaanse export en wereldwijde bedrijfsactiviteiten mogelijk maken.”
Alle drie de bedrijven benadrukken de noodzaak van verbeterde evaluatiemogelijkheden van de overheid. Anthropic roept specifiek op tot het bouwen van “het vermogen van de federale overheid om krachtige AI -modellen te testen en te evalueren op nationale veiligheidsmogelijkheden” om potentiële misbruiken door tegenstanders beter te begrijpen. Dit zou het behoud van het AI Safety Institute inhouden en NIST opdragen beveiligingsevaluaties te ontwikkelen en teams van interdisciplinaire experts te assembleren.
Vergelijkingstabel: OpenAI, Anthropic, Google
Focusgebied | Openai | Antropisch | |
Primaire bezorgdheid | Politieke en economische bedreigingen van door de staat gecontroleerde AI | Bioveiligheidsrisico’s van geavanceerde modellen | Innovatie handhaven tijdens het in evenwicht brengen van de beveiliging |
Bekijk op Deepseek R1 | “Door de staat gesubsidieerd, door de staat gecontroleerd en vrij beschikbaar” met Huawei-achtige risico’s | Bereid om “biologische wapenvragen” te beantwoorden met kwaadaardige intentie | Minder specifieke focus op Deepseek, meer op bredere concurrentie |
Nationale veiligheidsprioriteit | CCP -invloed en risico’s voor gegevensbeveiliging | Biosecurity -bedreigingen en chip -export mazen | Evenwichtige exportcontroles die Amerikaanse providers niet belasten |
Wettelijke benadering | Vrijwillige samenwerking met de federale overheid; enkel contactpunt | Verbeterde testcapaciteit van de overheid; geharde exportcontroles | “Pro-innovatie federaal raamwerk”; Sector-specifiek bestuur |
Infrastructuurfocus | Overheid adoptie van Frontier AI -tools | Energie -uitbreiding (50 GW in 2027) voor AI -ontwikkeling | Gecoördineerde actie op energie, waardoor hervorming wordt toegestaan |
Onderscheidende aanbeveling | Gelaagde exportcontrolekader die “Democratische AI” bevordert | Onmiddellijke regelgevende actie op NVIDIA H20 -chips geëxporteerd naar China | Toegang van de industrie tot openlijk beschikbare gegevens voor redelijk leren |
Strategieën voor economische concurrentievermogen
Infrastructuurvereisten, met name energiebehoeften, ontstaan als een cruciale factor bij het handhaven van ons AI -leiderschap. Anthropic waarschuwde dat “tegen 2027, het trainen van een enkel frontier AI -model zal vereisen dat netwerkcomputerclusters ongeveer vijf gigawatt vermogen zijn.” Ze stelden een ambitieus nationaal doelwit voor om 50 extra gigawatt aan kracht te bouwen die specifiek aan de AI -industrie zijn gewijd tegen 2027, naast maatregelen om de goedkeuringen van de transmissielijn te stroomlijnen en te versnellen.
Openai omkadert de concurrentie opnieuw als een ideologische wedstrijd tussen “Democratische AI” en “Autocratic, Authoritaire AI” gebouwd door de CCP. Hun visie op “Democratische AI” benadrukt “een vrije markt die vrije en eerlijke concurrentie bevordert” en “vrijheid voor ontwikkelaars en gebruikers om mee te werken en onze tools te richten als ze dat nodig achten”, in geschikte veiligheidsardtrairs.
Alle drie de bedrijven boden gedetailleerde aanbevelingen voor het handhaven van het Amerikaanse leiderschap. Anthropic benadrukte het belang van “het versterken van het Amerikaanse economische concurrentievermogen” en ervoor zorgen dat “AI-gedreven economische voordelen op grote schaal worden gedeeld in de samenleving.” Ze pleitten voor “het beveiligen en opschalen van de Amerikaanse energievoorziening” als een kritische voorwaarde om de AI -ontwikkeling binnen Amerikaanse grenzen te houden, en waarschuwden dat energiebeperkingen ontwikkelaars in het buitenland kunnen dwingen.
Google riep op tot beslissende acties om ‘ons AI-ontwikkeling te ontwikkelen’, gericht op drie belangrijke gebieden: investeringen in AI, versnelling van de AI-acceptatie van de overheid en promotie van pro-innovatie-benaderingen internationaal. Het bedrijf benadrukte de noodzaak van “gecoördineerde federale, provinciale, lokale en industriële actie op beleid zoals transmissie en het toestaan van hervormingen om te voldoen aan de stijgende energiebehoeften” naast “evenwichtige exportcontroles” en “voortdurende financiering voor fundamentele AI -onderzoek en ontwikkeling.”
De inzending van Google benadrukte met name de noodzaak van een “pro-innovatie federaal raamwerk voor AI” dat een patchwork van staatsvoorschriften zou voorkomen en tegelijkertijd de toegang van de industrie tot openlijk beschikbare gegevens voor trainingsmodellen zou verzekeren. Hun aanpak benadrukt “gerichte, sectorspecifieke en risicogebaseerde AI-governance en normen” in plaats van brede regelgeving.
Regelgevende aanbevelingen
Een uniforme federale benadering van AI -verordening kwam naar voren als een consistent thema voor alle inzendingen. Openai waarschuwde voor “regelgevende arbitrage die door individuele Amerikaanse staten werd gecreëerd” en stelde een “holistische benadering voor die vrijwillig partnerschap tussen de federale overheid en de particuliere sector mogelijk maakt.” Hun raamwerk voorziet toezicht op het ministerie van Handel, mogelijk via een opnieuw bedacht US AI Safety Institutehet verstrekken van een enkel contactpunt voor AI -bedrijven om met de overheid in contact te komen over veiligheidsrisico’s.
Bij exportcontroles pleitte Openai voor een gelaagd raamwerk dat is ontworpen om de acceptatie van de Amerikaanse AI in landen te bevorderen die zijn afgestemd op democratische waarden en tegelijkertijd de toegang voor China en zijn bondgenoten beperken. Anthropic riep op dezelfde manier op om “exportcontroles te verharden om de Amerikaanse AI -lead te vergroten” en “de beveiliging van de Amerikaanse grenslaboratoria dramatisch te verbeteren” door verbeterde samenwerking met inlichtingendiensten.
Overwegingen van auteursrechten en intellectuele eigendom werden prominent aanwezig in de aanbevelingen van zowel Openai als in Google. Openai benadrukte het belang van het handhaven van fair use -principes om AI -modellen in staat te stellen te leren van auteursrechtelijk beschermd materiaal zonder de commerciële waarde van bestaande werken te ondermijnen. Ze waarschuwden dat overdreven beperkende auteursrechtregels ons AI -bedrijven kunnen benadrukken in vergelijking met Chinese concurrenten. Google herhaalde deze weergave en pleitte voor “evenwichtige auteursrechtregels, zoals redelijk gebruik en tekst-en-data-mijnbouwuitzonderingen” die zij beschreven als “kritisch om AI-systemen in staat te stellen te leren van voorkennis en openbaar beschikbare gegevens.”
Alle drie de bedrijven benadrukten de noodzaak van de goedkeuring van de overheid van AI -technologieën. Openai riep op tot een “ambitieuze strategie voor adoptie van de overheid” om federale processen te moderniseren en Frontier AI -tools veilig in te zetten. Ze raden specifiek aan om obstakels voor AI -acceptatie te verwijderen, inclusief verouderde accreditatieprocessen zoals zoals Fedrampbeperkende testautoriteiten en inflexibele inkooppaden. Anthropisch pleitte op dezelfde manier voor “het bevorderen van snelle AI -inkoop in de federale overheid” om een revolutie teweeg te brengen in de activiteiten en de nationale veiligheid te verbeteren.
Google stelde voor “het stroomlijnen van verouderde accreditatie, autorisatie en inkooppraktijken” binnen de overheid om de adoptie van AI te versnellen. Ze benadrukten het belang van effectieve regels voor openbare inkoop en verbeterde interoperabiliteit in cloudoplossingen van de overheid om innovatie te vergemakkelijken.
De uitgebreide inzendingen van deze toonaangevende AI -bedrijven geven een duidelijke boodschap: het handhaven van Amerikaans leiderschap in kunstmatige intelligentie vereist gecoördineerde federale actie op meerdere fronten – van infrastructuurontwikkeling en wettelijke kaders tot nationale veiligheidsbescherming en modernisering van de overheid – met name als concurrentie van China -intensief.