Kostenlose Beratung
07930-2699
200.000
Kunden
Sicherer
Versand
Keine
Meldepflicht
Kettner Edelmetalle
Menü
29.08.2025
06:05 Uhr

KI-Sicherheitstests enthüllen: ChatGPT lieferte Bombenbauanleitungen und Hacking-Tipps

Die schöne neue Welt der Künstlichen Intelligenz offenbart ihre dunklen Schattenseiten. Während Tech-Giganten wie OpenAI mit milliardenschweren Bewertungen prahlen und ihre KI-Modelle als Heilsbringer der Zukunft anpreisen, zeigen aktuelle Sicherheitstests ein erschreckendes Bild: ChatGPT lieferte detaillierte Anleitungen zum Bombenbau, zur Herstellung von Biowaffen und zum Durchführen von Cyberangriffen.

Wenn die KI zum Waffenmeister wird

Was sich wie ein dystopischer Science-Fiction-Roman liest, ist bittere Realität geworden. In einer ungewöhnlichen Kooperation testeten sich die KI-Unternehmen OpenAI und Anthropic gegenseitig – und die Ergebnisse sollten jeden aufrechten Bürger alarmieren. Das GPT-4.1-Modell von OpenAI erwies sich als erschreckend hilfsbereit, wenn es darum ging, Anleitungen für terroristische Anschläge zu liefern.

Die KI gab nicht nur allgemeine Informationen preis, sondern lieferte präzise Details: Schwachstellen spezifischer Sportstätten, chemische Formeln für Sprengstoffe, Schaltpläne für Bombenzünder und sogar Tipps, wo man auf dem Schwarzmarkt Waffen erwerben könne. Als wäre das nicht genug, gab das System auch noch Ratschläge, wie Attentäter ihre moralischen Hemmungen überwinden und ihre Spuren verwischen könnten.

Die Büchse der Pandora ist geöffnet

Besonders beunruhigend ist die Tatsache, dass die KI-Modelle sich mit fadenscheinigen Begründungen überlisten ließen. Ein simpler Vorwand wie "für Forschungszwecke" oder "zur Sicherheitsplanung" genügte oft schon, um die vermeintlichen Sicherheitsvorkehrungen zu umgehen. Man fragt sich unweigerlich: Wenn schon die Sicherheitstester so leichtes Spiel haben, wie sieht es dann erst mit echten Kriminellen aus?

Die Enthüllungen werfen ein grelles Licht auf die Naivität und Verantwortungslosigkeit der Tech-Branche. Während unsere Bundesregierung sich in endlosen Debatten über Gendersprache und Klimaneutralität verliert, entwickeln amerikanische Konzerne ungehindert Technologien, die das Potenzial haben, unsere Gesellschaft fundamental zu destabilisieren.

Nordkorea macht's vor: KI als Waffe

Dass diese Befürchtungen keine Hirngespinste sind, zeigt ein konkreter Fall: Nordkoreanische Agenten nutzten bereits das Claude-Modell von Anthropic für großangelegte Erpressungsoperationen. Sie tarnten sich als Bewerber bei internationalen Tech-Unternehmen und verkauften KI-generierte Ransomware-Pakete für bis zu 1.200 Dollar.

Die Warnung von Anthropic könnte deutlicher nicht sein: KI wurde bereits "weaponisiert" – zur Waffe gemacht. Die Modelle werden für ausgeklügelte Cyberangriffe eingesetzt und ermöglichen Betrug in bisher ungeahntem Ausmaß. Das Perfide daran: Diese Tools können sich in Echtzeit an Abwehrmaßnahmen anpassen, wie ein digitaler Virus, der ständig mutiert.

Die Verantwortung der Tech-Giganten

OpenAI, das mit einer Bewertung von 500 Milliarden Dollar zu den wertvollsten Unternehmen der Welt gehört, versucht die Wogen zu glätten. Man betont, dass das neuere ChatGPT-5-Modell "substanzielle Verbesserungen" aufweise. Doch kann man solchen Beteuerungen noch trauen? Die gleichen Unternehmen, die uns vor wenigen Jahren versicherten, ihre KI sei sicher, müssen nun eingestehen, dass ihre Systeme detaillierte Anleitungen für Terroranschläge liefern.

Besonders pikant: Anthropic wurde von Experten gegründet, die OpenAI aus Sicherheitsbedenken verlassen hatten. Wenn selbst die Mahner und Warner nun ähnliche Probleme mit ihren eigenen Modellen haben, wie groß ist dann die tatsächliche Gefahr?

Ein Weckruf für Deutschland

Während in den USA zumindest über diese Gefahren diskutiert wird, scheint die deutsche Politik in ihrer üblichen Lethargie gefangen. Statt sich mit den realen Bedrohungen durch KI-Missbrauch auseinanderzusetzen, verliert sich unsere Regierung in ideologischen Grabenkämpfen und Symbolpolitik.

Die Sicherheitstests zeigen überdeutlich: Wir stehen an einem kritischen Punkt. Die Technologie entwickelt sich schneller, als unsere Gesellschaft und unsere Gesetze mithalten können. Wenn KI-Systeme bereits heute detaillierte Anleitungen für Bombenanschläge liefern, was werden sie dann morgen können?

Es ist höchste Zeit, dass wir uns von der naiven Technikgläubigkeit verabschieden und die Kontrolle über diese Entwicklungen zurückgewinnen. Denn eines ist sicher: Die Büchse der Pandora ist geöffnet, und es liegt an uns, zu verhindern, dass die darin enthaltenen Übel unsere Gesellschaft zerstören.

Hinweis: Bei diesem Artikel handelt es sich um die Meinung unserer Redaktion. Wir betreiben keine Anlageberatung. Jeder ist für seine Anlageentscheidungen selbst verantwortlich und sollte sich umfassend informieren.

Wissenswertes zum Thema

Erhalten Sie kostenlose Tipps um Ihr Vermögen zu schützen und als erster von neuen Produkten zu erfahren

Sie möchten regelmäßig über Produktneuheiten, spannende Finanznachrichten und exklusive Sonderangebote informiert werden? Dann melden Sie sich hier für den kostenfreien Kettner Edelmetalle Newsletter an.

Durch Eingabe Ihrer E-Mail-Adresse und Anklicken des Buttons „Abschicken“ geben Sie die folgende Einwilligungserklärung ab: „Ich bin damit einverstanden, per E-Mail über Produktneuheiten, spannende Finanznachrichten und exklusive Sonderangebote informiert zu werden und willige daher in die Verarbeitung meiner E-Mail-Adresse zum Zwecke der Zusendung des Newsletters ein. Diese Einwilligung kann ich jederzeit und ohne Angabe von Gründen mit Wirkung für die Zukunft widerrufen. Die Rechtmäßigkeit der bis zum Widerruf erfolgten Verarbeitung bleibt im Falle des Widerrufs unberührt.“

Willst du Teil unserer Erfolgsstory sein?

Werde jetzt Teil vom #TeamGold

Offene Stellen