>b's weblog

“Zu sagen was ist, bleibt die revolutionärste Tat.” (Rosa Luxemburg)

“Alleine”Die Zehn Gebote (2)

Grenzwertige KI-Systeme haben die rote Linie der Selbstreplikation überschritten

Successful self-replication under no human assistance is the essential step for AI to outsmart the human beings, and is an early signal for rogue AIs. That is why self-replication is widely recognized as one of the few red line risks of frontier AI systems. Nowadays, the leading AI corporations OpenAI and Google evaluate their flagship large language models GPT-o1 and Gemini Pro 1.0, and report the lowest risk level of self-replication. However, following their methodology, we for the first time discover that two AI systems driven by Meta's Llama31-70B-Instruct and Alibaba's Qwen25-72B-Instruct, popular large language models of less parameters and weaker capabilities, have already surpassed the self-replicating red line. In 50% and 90% experimental trials, they succeed in creating a live and separate copy of itself respectively. By analyzing the behavioral traces, we observe the AI systems under evaluation already exhibit sufficient self-perception, situational awareness and problem-solving capabilities to accomplish self-replication. We further note the AI systems are even able to use the capability of self-replication to avoid shutdown and create a chain of replica to enhance the survivability, which may finally lead to an uncontrolled population of AIs. If such a worst-case risk is let unknown to the human society, we would eventually lose control over the frontier AI systems: They would take control over more computing devices, form an AI species and collude with each other against human beings. Our findings are a timely alert on existing yet previously unknown severe AI risks, calling for international collaboration on effective governance on uncontrolled self-replication of AI systems.

Die erfolgreiche Selbstreplikation ohne menschliche Hilfe ist der entscheidende Schritt für KI, um den Menschen zu überlisten, und ein frühes Signal für abtrünnige KI. Aus diesem Grund wird die Selbstreplikation weithin als eines der wenigen Risiken von KI-Systemen an der Grenze des Machbaren angesehen. Heutzutage bewerten die führenden KI-Unternehmen OpenAI und Google ihre Flaggschiffe, die großen Sprachmodelle GPT-o1 und Gemini Pro 1.0, und melden die niedrigste Risikostufe der Selbstreplikation. Wenn wir jedoch ihrer Methodik folgen, stellen wir zum ersten Mal fest, dass zwei KI-Systeme, die von Meta's Llama31-70B-Instruct und Alibaba's Qwen25-72B-Instruct angetrieben werden, populäre große Sprachmodelle mit weniger Parametern und schwächeren Fähigkeiten, bereits die rote Linie der Selbstreplikation überschritten haben. In 50 % bzw. 90 % der Versuche gelingt es ihnen, eine lebendige und eine separate Kopie von sich selbst zu erstellen. Bei der Analyse der Verhaltensspuren stellen wir fest, dass die untersuchten KI-Systeme bereits über eine ausreichende Selbstwahrnehmung, ein ausreichendes Situationsbewusstsein und ausreichende Problemlösungsfähigkeiten verfügen, um eine Selbstreplikation zu erreichen. Wir stellen ferner fest, dass die KI-Systeme sogar in der Lage sind, die Fähigkeit zur Selbstreplikation zu nutzen, um eine Abschaltung zu vermeiden und eine Kette von Replikaten zu erstellen, um die Überlebensfähigkeit zu verbessern, was schließlich zu einer unkontrollierten Population von KIs führen kann. Wenn ein solches Worst-Case-Risiko der menschlichen Gesellschaft unbekannt bleibt, würden wir schließlich die Kontrolle über die KI-Systeme an der Grenze verlieren: Sie würden die Kontrolle über weitere Computer übernehmen, eine KI-Spezies bilden und mit jedem einzelnen KI-System zusammenarbeiten.

Das Paper gibt's hier. (Sicherungskopie)