Bugün: Şubat 10, 2025
Şubat 9, 2025
1 dk okuma

Anthropic CEO’sundan DeepSeek’e Yönelik Açıklama: “Biyolojik Silah Veri Güvenliği Testinde En Kötüsüydü”

Anthropic CEO’su Dario Amodei, Çinli yapay zekâ devi DeepSeek’in güvenlik konusunda ciddi riskler taşıdığını söyledi.

Dario Amodei özellikle biyolojik silahlarla ilgili hassas bilgileri engelleme testinde DeepSeek’in diğer yapay zekâ araçları arasında “en kötü performansı” sergilediğini belirtti.

“DeepSeek gelecekte daha büyük güvenlik riskleri oluşturacak”

ChinaTalk podcast’inde konuşan Dario Amodei, şirketinin yapay zekâ modellerini güvenlik açısından değerlendirdiğini ve DeepSeek’in bu testlerde tehlikeli bilgiler üretmekten kaçınmadığını vurguladı. Dahası Dario Amodeoi’ye göre DeepSeek gelecekte daha büyük güvenlik riskleri oluşturacak.

DeepSeek’in modelleri, Cisco’nun güvenlik araştırmalarında da alarm verdi. Araştırmacılar, DeepSeek R1’in tüm jailbreak girişimlerine karşı savunmasız olduğunu ve zararlı içerikleri filtreleyemediğini tespit etti. Tabii bu yalnızca DeepSeek’e özgü bir durum değil. OpenAI’ın GPT-4o ve Meta’nın Llama-3.1-405B modelleri de benzer problemlerden muzdarip.

Son haftalarda DeepSeek’e yönelik bu tür güvenlik endişeleri bazı devlet kurumlarını ve şirketleri DeepSeek’i yasaklamaya yöneltti. Popülaritesi bir anda fırlayan DeepSeek’in geleceğinin nasıl olacağını hep birlikte göreceğiz.

DeepSeek’e yönelik son gelişmeler:

Önceki

Prof. Dr. Naci Görür bu sefer zelzele sonrasına dikkat çekti! ‘Evin sağlam olsa ne olur ki?’

Sonraki

Kimsenin Kıramayacağı İddia Edilen Yeni Bir Şifreleme Sistemi Oluşturuldu: Lazerle Üretilen Hologramları Kullandılar!

Son gönderi Blog

Don't Miss

Beyaz Saray’da kritik tepe: Trump ve Ishiba’dan Çin’e karşı ortak güvenlik bildirisi

ABD Başkanı Donald Trump ve Japonya Başbakanı Shigeru Ishiba, Beyaz

ABD’de, DeepSeek Kullananlara 20 Yıl Hapis Cezası Verilmesi İçin Yasa Tasarısı Sunuldu

Bir ABD senatörü, DeepSeek gibi Çinli yapay zekâ modellerinin ülkede