Noua Inteligență Artificială Anthropic: Prea Periculoasă pentru public

Anthropic, compania de inteligență artificială, a lansat o versiune limitată a modelului său AI Mythos, destinat securității cibernetice. Acesta va fi utilizat de 12 organizații partenere în cadrul inițiativei „Project Glasswing”. Modelul este descris drept unul dintre cele mai puternice dezvoltate de companie.

Mythos: Inteligența artificială în slujba securității

Mythos, deși nu a fost antrenat specific pentru securitate cibernetică, a identificat mii de vulnerabilități zero-day, multe dintre ele critice. Unele dintre acestea datează de acum 20 de ani. Modelul va fi utilizat pentru scanarea codului sursă, atât propriu cât și open-source, în scopul descoperirii eventualelor breșe de securitate.

În cadrul „Project Glasswing”, Anthropic colaborează cu organizații de renume precum Amazon, Apple, Broadcom, Cisco, CrowdStrike, Linux Foundation, Microsoft și Palo Alto Networks. Scopul inițiativei nu este doar utilizarea modelului, ci și împărtășirea informațiilor obținute pentru a sprijini întreaga industrie tech. În total, 40 de organizații vor avea acces la Mythos. Anthropic susține că Mythos este o soluție generală dezvoltată pentru sistemele Claude AI, cu abilități avansate de codificare și raționament. Modelele frontier ale companiei sunt recunoscute pentru performanțele lor în sarcini complexe, precum dezvoltarea agenților autonomi și programarea.

Provocări și controverse legate de Mythos

Compania este implicată în discuții cu autoritățile federale privind utilizarea Mythos. Negocierile sunt complicate de un proces în desfășurare între Anthropic și administrația Donald Trump. Pentagonul a catalogat Anthropic drept un „risc pentru lanțul de aprovizionare”, după ce firma a refuzat să permită utilizarea autonomă a modelelor sale pentru supravegherea cetățenilor americani.

În martie 2026, au fost dezvăluite informații despre Mythos în urma unui incident de securitate, cunoscut sub numele de „Capybara”. O postare nepublicată, destinată blogului intern al companiei, a fost descoperită. Anthropic a explicat că scurgerea a fost cauzată de „eroare umană”. Documentul dezvăluia că „Capybara” este „cel mai puternic model AI dezvoltat de companie” și că performanțele sale depășesc modelele publice existente. De asemenea, compania a avertizat că modelul, dacă ar fi utilizat de oameni rău intenționați, ar putea reprezenta un risc major de securitate.

În aceeași lună, Anthropic a făcut o greșeală semnificativă în lansarea versiunii 2.1.88 a software-ului Claude Code, expunând peste 2.000 de fișiere de cod sursă și jumătate de milion de linii de cod. În procesul de remediere, compania a cauzat în mod accidental eliminarea a mii de linii de cod de pe GitHub.

Elena Stanescu

Autor

Lasa un comentariu