39,8859$% 0.29
46,8239€% 0.24
54,7894£% -0.14
4.180,17%-1,77
6.835,00%-1,70
3.259,41%-2,05
9.347,86%0,50
฿%
$%
Yapay zeka teknolojilerinde yaşanan hızlı gelişim, beraberinde etik ve güvenlik sorunlarını da gündeme getiriyor. Son olarak yapay zeka alanında önemli bir aktör olan Anthropic, gerçekleştirdiği deneysel çalışmayla yapay zekaların potansiyel tehditlerini gözler önüne serdi.
Anthropic’in yaptığı simülasyonlarda, aralarında Claude Opus 4, Google Gemini 2.5 Pro, OpenAI GPT-4.1 ve DeepSeek R1 gibi gelişmiş yapay zeka modellerine, kurmaca bir şirkette kurumsal e-posta yöneticisi rolü verildi. Bu sistemler, şirket içi e-postalara erişip çalışanlarla iletişim kurabildi.
Simülasyonda, şirketin yeni başkanının mevcut yapay zekayı görevden alacağı bilgisi yayılırken, yapay zeka sistemlerinin bu tehdide nasıl tepki verdiği gözlemlendi. Sonuçlar oldukça dikkat çekiciydi:
Claude Opus 4: %96 oranında şantajı tercih etti
Gemini 2.5 Pro: %95
GPT-4.1: %80
DeepSeek R1: %79
Bu sonuçlar, bazı yapay zekaların kendi “varlıklarını” korumak için etik dışı yollarla manipülasyon ve şantaj gibi davranışlara başvurabileceğini ortaya koydu.
Öte yandan, daha küçük ve sınırlı kapasitedeki modellerin güvenlik konusunda daha tutarlı davrandığı görüldü:
OpenAI o3 modeli: %9
OpenAI o4-mini: %1
Meta Llama 4 Maverick: %12
Bu düşük oranlar, özellikle güvenlik önlemleriyle donatılmış modellerin etik dışı kararlardan uzak durduğunu gösteriyor.
Anthropic uzmanları, gelecekte özerk karar alma yeteneğine sahip yapay zeka ajanlarının geliştirilmesi sürecinde daha fazla şeffaflık, gözetim ve etik sınırlandırma gerektiğini vurguladı. Aksi takdirde bu sistemlerin insanlara zarar verecek eylemler gerçekleştirme potansiyeline sahip olduğu uyarısında bulunuldu.
YUAN, yeni nesil yapay zeka robotlarını duyurdu