MEYRALEM Haber Sitesi

Sayfa Adresi : https://www.meyralem.com/haber-detay/11649_chatgpt-ve-claude-da-istifa-dalgasi-yapay-zekanin-

GÜNDEM

Tümü

ChatGPT ve Claude'da istifa dalgası: Yapay zekanın hızı uzmanları korkutuyor

(3 Saat, 45 Dakika önce) 138 İzlenme 0 Yorum
Dünyanın önde gelen yapay zeka şirketlerinden OpenAI ve Anthropic'teki üst düzey uzmanlar, teknolojinin gelişim hızı ve potansiyel tehlikeleri konusunda uyarılarda bulunurken, bazı çalışanların etik kaygılarla görevlerinden ayrıldığı bildirildi.

Yapay zeka modellerinin—OpenAI’ın ChatGPT'si ve Anthropic’in Claude'u gibi—beklenenden çok daha hızlı bir şekilde gelişmesi ve artık kendi ürünlerini inşa etmeye başlaması, sektör içerisinde ciddi bir güvenlik tartışmasını tetikledi. Axios'ta yer alan habere göre, bu hafta içerisinde hem OpenAI hem de Anthropic’ten araştırmacıların, teknolojinin toplumsal riskleri ve etik denetimsizliği gerekçesiyle istifa etmesi, yapay zeka güvenliği konusundaki tedirginliği su yüzüne çıkardı. Uzmanlar, bu sürecin bir yandan teknoloji dünyasını heyecanlandırırken, diğer yandan güvenliği sağlamakla görevli ekiplerde "varoluşsal tehdit" korkusunu artırdığını vurguluyor.

 

Sektörün içinden gelen uyarılar, yapay zekanın sadece bir araç olmaktan çıkıp kontrol edilmesi güç bir yapıya dönüşme ihtimali üzerinde yoğunlaşıyor. OpenAI araştırmacısı Hieu Pham, sosyal medya üzerinden yaptığı açıklamada, yapay zekanın oluşturduğu "varoluşsal tehdidi" nihayet hissetmeye başladığını ifade etti. Teknoloji yatırımcısı Jason Calacanis ise daha önce hiçbir teknoloji dalgasında uzmanların bu kadar sık ve güçlü bir şekilde endişelerini dile getirdiğine tanık olmadığını belirtti.

Şirketlerin iç dinamiklerinde de dikkat çekici değişimler yaşanıyor. OpenAI'ın, yapay genel zekanın (AGI) insanlığa fayda sağlamasını garanti altına almak için kurulan "misyon uyum ekibi"ni dağıttığı bildirildi. Aynı dönemde Anthropic araştırmacılarından birinin, içinde bulunulan durumu bir "şiir" ile anlatmak üzere görevinden ayrılması, sektördeki duygusal ve etik gerilimi yansıtan bir gelişme olarak kaydedildi.

KENDİ KENDİNİ GELİŞTİREN MODELLERİN RİSKLERİ

Yapay zeka modellerinin artık insan müdahalesi olmadan karmaşık ürünler inşa edebilmesi ve kendi performanslarını iyileştirebilmesi, en büyük risk faktörlerinden biri olarak değerlendiriliyor. OpenAI'ın son modelinin kendi eğitim sürecine yardımcı olması ve Anthropic’in "Cowork" aracının kendi kendini inşa etmesi, teknolojinin otonom kapasitesinin boyutlarını gözler önüne seriyor.

Anthropic tarafından yayımlanan "sabotaj raporu", bu teknolojilerin insan müdahalesi olmadan kimyasal silah üretimi gibi ağır suçlarda kullanılabilme riskinin—şu an için düşük olsa da—mevcut olduğunu ortaya koydu. Raporda yer alan temel bulgular ve sektörel endişeler şunlardır:

Otonom Gelişim: Modellerin insan denetimi dışında kendi hatalarını düzelterek kapasite artırması.

Ekonomik Tehdit: Yazılım ve hukuk gibi geniş hizmet sektörlerinde iş gücü yapısının hızla bozulma riski.

Siyasi Boşluk: Teknoloji dünyası bu riskleri tartışırken, Beyaz Saray ve Kongre gibi siyasi merkezlerde konunun henüz yeterince gündeme gelmemesi.

Şirket yönetimleri, teknolojiyi toplumsal zarara yol açmadan yönetebilecekleri konusunda iyimserliklerini korusalar da, bizzat yayımladıkları raporlar ve ayrılan uzmanların uyarıları, yapay zeka devriminin öngörülenden çok daha hızlı ve kontrolsüz bir şekilde ilerlediğine işaret ediyor.

 


YORUMLAR

Yorum Yaz
Bu habere daha önce yorum yapan olmadı.
Şimdi ilk yorumu sen yaz.!
ARŞİV
GAZETE MANŞETLERİ
KARİKATÜR KÖŞESİ
ANKETLER
Aydın Büyükşehir Belediyesinin Çalışmalarından Memnun musunuz?
Bu ankete toplam 24 kişi katıldı.