Kosten für KI-Fake-News-Generierung nur 13 Won, 4 Sekunden: Koreanische Sicherheitskonferenz

CryptoFrontier

Am 16. April 2026 stellte Ko Woo-young, ein leitender Forscher am National Security Technology Institute Südkoreas (NSTI), seine Erkenntnisse auf der 32. Information and Communication Network Security Conference (NetSec-KR 2026) in Seoul vor und deckte auf, dass KI-generierte gefälschte Nachrichten zu erstaunlich niedrigen Kosten und Geschwindigkeit erzeugt werden können. Laut Ko kostet die Erstellung gefälschter Nachrichten mit generativer KI im Durchschnitt 13 Won und dauert 4 Sekunden; für 12 gefälschte Nachrichten sind durchschnittlich 155 Won und 46 Sekunden erforderlich. Ko betonte, dass die Verbreitung von KI-generierter Desinformation und böswilligen Kommentaren, die darauf ausgelegt sind, die öffentliche Meinung zu manipulieren, zu einer kritischen Bedrohung für die Gesellschaft geworden ist.

Von KI generierte Desinformation und gesellschaftliche Auswirkungen

Ko hob hervor, dass die generativen KI-Fähigkeiten zunehmend missbraucht werden und dass die wichtigste Missbrauchstaktik in der Manipulation von Meinungen und Informationen besteht. Er betonte, dass mit den so niedrigen und reichlich vorhandenen Kosten sowie dem hohen Volumen an Fake News und Fake-Kommentaren die Gesellschaft an einen Punkt gelangt ist, an dem es extrem schwierig geworden ist, Wahrheit von Falschheit zu unterscheiden.

Laut Koes Analyse führt die Verbreitung gefälschter Informationen dazu, dass sich die Mitglieder der Gesellschaft an Desinformation ermüden und das Interesse an der Realität verlieren. Dieses Phänomen veranlasst Menschen sogar, selbst authentische Informationen infrage zu stellen. Ko merkte an, dass “die Bestrafung für Fake News rechtlich schwer durchsetzbar ist, wenn daraus nicht ein finanzieller Gewinn entsteht,” und betonte, dass “sich die generative-KI-Technologie zu schnell weiterentwickelt und institutionelle Verbesserungen notwendig sind.”

Ko Woo-young bei seinem Vortrag über die Risiken von KI-generierten Fake News auf NetSec-KR 2026

KI-basierte Malware-Analyse und Erkennung

Choi Seok-woo, Direktor des NSTI, stellte in derselben Sitzung “KI-basierte Malware-Analysetechnologie” vor. Laut Chois Erkenntnissen werden, sobald KI dazu verwendet wird, Malware zu erzeugen, ungefähr 450.000 neue Malware-Beispiele täglich erstellt. Die kumulierte Gesamtzahl der Malware hat inzwischen 1 Milliarde Instanzen überschritten.

Als Reaktion auf diese sich verschärfende Bedrohung setzte sich Choi für die Entwicklung KI-gestützter Lösungen ein, darunter KI-basierte Analyse-Support-Systeme, autonome Analyseagenten auf Basis großer Sprachmodelle (LLM) und automatisierte Deobfuskations-Tools.

Choi Seok-woo bei seinem Vortrag über die Notwendigkeit von KI-basierter Malware-Analysetechnologie

Schwachstellen-Erkennung auf Basis von LLMs: Aktuelle Grenzen

Ji Hyun-seok, leitender Forscher am NSTI, stellte “Das Zeitalter der LLM-basierten Software-Sicherheits-Schwachstellenerkennung” vor. Jis Forschung untersuchte, wie LLMs Sicherheitslücken erkennen, und stellte dabei wesentliche Einschränkungen in den aktuellen Fähigkeiten fest.

Ji sagte: “In jüngsten Fällen, in denen KI zahlreiche Schwachstellen identifiziert hat, zeigen die Analyseergebnisse, dass dies tatsächlich nicht der Fall ist. Effektive Schwachstellenerkennung war nur möglich, wenn LLM- und KI-Modelle mit speziellen Tools zur Schwachstellenerkennung ausgestattet wurden.” Laut Ji stehen LLMs derzeit mehreren Beschränkungen gegenüber, darunter Einschränkungen bei der Handhabung großer Codebasen, Probleme bei der Datenabhängigkeit und unzuverlässiges logisches Schlussfolgern.

Ji prognostizierte, dass die Synergie maximal wäre, wenn erfahrene Security-Analysten, die Schwachstellen direkt identifizieren können, LLM-Tools nutzen. Allerdings betonte Ji, dass “die LLM-Schwachstellenerkennung noch nicht vollständig ist. Bessere Methoden zur Auffindung von Schwachstellen müssen erforscht werden.” Der Vortrag machte deutlich, dass eine schwachstellenbasierte Erkennung auf Basis von LLMs derzeit noch nicht effektiv allein von KI durchgeführt werden kann und dass menschliche Expertise für eine verlässliche Sicherheitsanalyse weiterhin unverzichtbar ist.

Ji Hyun-seok bei seinem Vortrag über Forschung zur LLM-basierten Schwachstellenerkennung

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare