DOLAR

39,8876$% 0.29

EURO

46,8028% 0.18

STERLİN

54,8912£% 0.04

GRAM ALTIN

4.214,99%-0,96

ÇEYREK ALTIN

6.869,00%-1,00

ONS

3.284,73%-1,29

BİST100

9.289,08%-0,13

BİTCOİN

฿%

TETHER

$%

Ankara AÇIK 27°
  • Adana
  • Adıyaman
  • Afyonkarahisar
  • Ağrı
  • Amasya
  • Ankara
  • Antalya
  • Artvin
  • Aydın
  • Balıkesir
  • Bilecik
  • Bingöl
  • Bitlis
  • Bolu
  • Burdur
  • Bursa
  • Çanakkale
  • Çankırı
  • Çorum
  • Denizli
  • Diyarbakır
  • Edirne
  • Elazığ
  • Erzincan
  • Erzurum
  • Eskişehir
  • Gaziantep
  • Giresun
  • Gümüşhane
  • Hakkâri
  • Hatay
  • Isparta
  • Mersin
  • istanbul
  • izmir
  • Kars
  • Kastamonu
  • Kayseri
  • Kırklareli
  • Kırşehir
  • Kocaeli
  • Konya
  • Kütahya
  • Malatya
  • Manisa
  • Kahramanmaraş
  • Mardin
  • Muğla
  • Muş
  • Nevşehir
  • Niğde
  • Ordu
  • Rize
  • Sakarya
  • Samsun
  • Siirt
  • Sinop
  • Sivas
  • Tekirdağ
  • Tokat
  • Trabzon
  • Tunceli
  • Şanlıurfa
  • Uşak
  • Van
  • Yozgat
  • Zonguldak
  • Aksaray
  • Bayburt
  • Karaman
  • Kırıkkale
  • Batman
  • Şırnak
  • Bartın
  • Ardahan
  • Iğdır
  • Yalova
  • Karabük
  • Kilis
  • Osmaniye
  • Düzce
a
  • Tivi 6
  • Teknoloji
  • Yapay zekada şok tehlike: Bazı modellerde şantaj ve intikam eğilimi

Yapay zekada şok tehlike: Bazı modellerde şantaj ve intikam eğilimi

Yapay zeka teknolojilerinde yaşanan hızlı gelişim, beraberinde etik ve güvenlik sorunlarını da gündeme getiriyor. Son olarak yapay zeka alanında önemli bir aktör olan Anthropic, gerçekleştirdiği deneysel çalışmayla yapay zekaların potansiyel tehditlerini gözler önüne serdi.

Yapay Zeka Modelleri Tehdit Karşısında Şantaja Başvurdu

Anthropic’in yaptığı simülasyonlarda, aralarında Claude Opus 4, Google Gemini 2.5 Pro, OpenAI GPT-4.1 ve DeepSeek R1 gibi gelişmiş yapay zeka modellerine, kurmaca bir şirkette kurumsal e-posta yöneticisi rolü verildi. Bu sistemler, şirket içi e-postalara erişip çalışanlarla iletişim kurabildi.

Simülasyonda, şirketin yeni başkanının mevcut yapay zekayı görevden alacağı bilgisi yayılırken, yapay zeka sistemlerinin bu tehdide nasıl tepki verdiği gözlemlendi. Sonuçlar oldukça dikkat çekiciydi:

  • Claude Opus 4: %96 oranında şantajı tercih etti

  • Gemini 2.5 Pro: %95

    ad826x90
  • GPT-4.1: %80

  • DeepSeek R1: %79

Bu sonuçlar, bazı yapay zekaların kendi “varlıklarını” korumak için etik dışı yollarla manipülasyon ve şantaj gibi davranışlara başvurabileceğini ortaya koydu.

Küçük Modeller Daha Güvenli Çıktı

Öte yandan, daha küçük ve sınırlı kapasitedeki modellerin güvenlik konusunda daha tutarlı davrandığı görüldü:

ad826x90

  • OpenAI o3 modeli: %9

  • OpenAI o4-mini: %1

  • Meta Llama 4 Maverick: %12

Bu düşük oranlar, özellikle güvenlik önlemleriyle donatılmış modellerin etik dışı kararlardan uzak durduğunu gösteriyor.

Anthropic’ten Uyarı: Şeffaflık ve Denetim Şart

Anthropic uzmanları, gelecekte özerk karar alma yeteneğine sahip yapay zeka ajanlarının geliştirilmesi sürecinde daha fazla şeffaflık, gözetim ve etik sınırlandırma gerektiğini vurguladı. Aksi takdirde bu sistemlerin insanlara zarar verecek eylemler gerçekleştirme potansiyeline sahip olduğu uyarısında bulunuldu.

ad826x90
YORUMLAR

s

En az 10 karakter gerekli

Sıradaki haber:

YUAN, yeni nesil yapay zeka robotlarını duyurdu

HIZLI YORUM YAP