Yapay Zeka Etiğinde Küresel Gelişmeler ve Tartışmalar (Kasım 2025)

2025 yılı Kasım ayı, yapay zeka dünyasında “teorik etik” tartışmalarından “uygulamalı denetim” ve “çevresel sorumluluk” konularına geçişin yaşandığı bir dönem oldu. Özellikle Brezilya’daki COP30 Zirvesi ve Türkiye’deki girişimcilik ekosistemindeki gelişmeler, Ekim ayında Etik Yapay Zeka alanını şekillendiren ana etkinliklerdi.

Aşağıda, 2025 Kasım ayında Türkiye ve dünyada gerçekleşen, “Yapay Zeka Etiği” ve “Sorumlu Yapay Zeka” odaklı önemli gelişmelerden bazıları yer alıyor.

1. COP30 Zirvesi ve “Yeşil Yapay Zeka Mutabakatı” (Brezilya)

10-21 Kasım tarihlerinde Brezilya’nın Belem kentinde düzenlenen Birleşmiş Milletler İklim Değişikliği Konferansı’nda (COP30), teknoloji devleri ilk kez “Sürdürülebilir Yapay Zeka Hesaplama Standartları”nı imzaladı. Veri merkezlerinin su ve enerji tüketimini 2030’a kadar %30 azaltmayı hedefleyen bu mutabakat, yapay zeka etiğinin sadece veri değil, çevre boyutuyla da ele alınması gerektiğini tescilledi.

Kaynak: UN Climate Change – COP30 Outcomes

2. İTÜ Çekirdek “Big Bang Startup Challenge 2025” (Türkiye)

Türkiye’nin en büyük girişimcilik etkinliği olan Big Bang’de bu yıl ilk kez “Etik Yapay Zeka” dikeyinde özel bir ödül kategorisi açıldı. 27 Kasım’da gerçekleşen finalde, yapay zeka algoritmalarındaki ön yargıları (bias) tespit edip temizleyen yerli bir girişim büyük ödülü aldı. Bu gelişme, Türkiye’deki yatırımcıların sorumlu teknolojilere olan ilgisinin arttığını gösterdi.

Kaynak: İTÜ Çekirdek – Big Bang 2025 Kazananları

3. AB Yapay Zeka Ofisi: İlk “GPAI” Uyarıları

Avrupa Birliği Yapay Zeka Ofisi (AI Office), Yapay Zeka Yasası (AI Act) kapsamında Genel Amaçlı Yapay Zeka (GPAI) modelleri geliştiren üç büyük şirkete “sistemik risk değerlendirmesi” eksikliği nedeniyle 15 Kasım’da resmi uyarı gönderdi. Bu olay, yasanın sadece kağıt üzerinde kalmayacağının ve denetim mekanizmasının fiilen işlemeye başladığının ilk somut kanıtı oldu.

Kaynak: EU AI Office – Newsroom

4. “Ajan Yapay Zeka” (Agentic AI) Sorumluluk Çerçevesi

Otonom olarak aksiyon alabilen (bilet alan, para transferi yapan) “Ajan Yapay Zekalar”ın yaygınlaşmasıyla birlikte, OECD Dijital Ekonomi Politikaları Komitesi 8 Kasım’da yeni bir rehber yayınladı. Rehber, otonom ajanların neden olduğu hatalarda (örn: yanlış uçak bileti alımı veya hatalı borsa emri) sorumluluğun kullanıcıda mı yoksa sağlayıcıda mı olduğuna dair yeni “hata payı” standartları getirdi.

Bu raporun son bölümünde “Ajan Yapay Zekalar” (Agentic AI) konusundaki OECD rehberini ve bunun iş dünyasına etkilerini detaylandıran bir bilgi notu yer alıyor.

Kaynak: OECD.AI – Policy Observatory

5. KVKK “Büyük Dil Modelleri ve Veri Mahremiyeti” Rehberi (Türkiye)

Kişisel Verileri Koruma Kurumu (KVKK), 12 Kasım 2025 tarihinde Türkçe Büyük Dil Modelleri (LLM) geliştiren şirketler için bağlayıcı bir rehber yayınladı. Rehberde, “Unutulma Hakkı”nın yapay zeka modelleri içinde nasıl uygulanacağına (Machine Unlearning) dair teknik gereklilikler detaylandırıldı. Bu, Türkiye’nin veri egemenliği stratejisinde önemli bir adım olarak kayda geçti.

Kaynak: KVKK Duyurular Sayfası

6. GitHub Copilot ve “Lisanssız Kod” Davası Kararı

ABD’de uzun süredir devam eden ve yazılımcıların kodlarının izinsiz kullanımıyla ilgili açtığı davada, Kasım ayı ortasında ara karar açıklandı. Mahkeme, yapay zeka tarafından “birebir kopyalanan” kod blokları için telif hakkı ihlali sayılabileceğine hükmetti. Bu karar, “Adil Kullanım” (Fair Use) savunmasının sınırlarını daraltarak yazılım etiğinde yeni bir dönem başlattı.

Kaynak: Electronic Frontier Foundation (EFF) – AI Litigation Updates

7. Deepfake ile Finansal Dolandırıcılık Operasyonu (Global Vaka)

Londra merkezli çok uluslu bir şirketin CFO’sunun deepfake (ses ve görüntü) taklidiyle kandırılarak 20 milyon doların üzerinde para transferi yapılması, Kasım ayının en sarsıcı vakası oldu. 4 Kasım’da basına yansıyan olay, kurumsal siber güvenlik protokollerinde “insan doğrulama” süreçlerinin yetersizliğini ve yapay zeka okuryazarlığının önemini acı bir şekilde hatırlattı.

Kaynak: BBC Technology – AI Deepfake Scam Report

8. Türk Tabipleri Birliği (TTB) Yapay Zeka Bildirgesi

TTB, 22 Kasım’da “Tıpta Yapay Zeka Kullanımı Etik Bildirgesi”ni yayınladı. Bildirgede, yapay zekanın teşhis süreçlerinde bir “yardımcı” olarak kalması gerektiği, nihai kararın mutlaka hekim tarafından verilmesi zorunluluğu ve hasta verilerinin ticari modellerde kullanımına dair kırmızı çizgiler belirlendi.

Kaynak: Türk Tabipleri Birliği – Basın Açıklamaları

9. Content Authenticity Initiative (CAI) Zorunluluğu

Büyük bir sosyal medya platformu, 18 Kasım itibarıyla yapay zeka ile üretilen tüm içeriklerde C2PA (Content Credentials) dijital imzasını zorunlu kıldığını açıkladı. Bu hamle, dezenformasyonla mücadelede platformların “gönüllülükten” “zorunluluğa” geçiş yaptığı bir kırılma noktası olarak değerlendirildi.

Kaynak: Content Authenticity Initiative Blog

10. UNESCO “Nöroteknoloji ve Yapay Zeka” Raporu

UNESCO, beyin-bilgisayar arayüzleri (BCI) ve yapay zeka entegrasyonunun yarattığı “zihinsel mahremiyet” (mental privacy) risklerine dair raporunu 25 Kasım’da Paris’te sundu. Raporda, düşüncelerin yapay zeka tarafından analiz edilmesinin insan onuruna aykırı olabileceği belirtilerek, bu alanda acil global regülasyon çağrısı yapıldı.

Kaynak: UNESCO – Ethics of Neurotechnology

11. Türkiye Ulusal Yapay Zeka Stratejisi (2026-2030) Hazırlık Çalıştayı

Cumhurbaşkanlığı Dijital Dönüşüm Ofisi liderliğinde, 2021-2025 stratejisinin bitişine yaklaşırken, yeni dönem stratejisini belirlemek üzere 14 Kasım’da Ankara’da geniş katılımlı bir çalıştay düzenlendi. Yeni stratejinin odak noktasının “Yapay Zeka Güvenliği” ve “Yerli Büyük Dil Modelleri” olduğu vurgulandı.

Kaynak: Dijital Dönüşüm Ofisi – Haberler

12. Hollywood Oyuncular Sendikası (SAG-AFTRA) “Dijital İkiz” Anlaşması

Geçmiş grevlerin ardından, Kasım 2025’te stüdyolarla yapılan ek protokol ile ölen oyuncuların “dijital ikizlerinin” yapay zeka ile oluşturulması konusunda mirasçıların mutlak onay hakkını garanti altına alan etik standartlar yürürlüğe girdi. Bu, “ölüm sonrası veri hakları” konusunda emsal teşkil etti.

Kaynak: SAG-AFTRA Press Releases


Değerlendirme

2025 Kasım ayı, yapay zeka etiğinde “çevresel farkındalık” ve “somut yasal yaptırımlar” ayı oldu:

  1. Yeşil Dönüşüm: COP30 ile birlikte yapay zekanın enerji maliyeti ilk kez küresel bir iklim sorunu olarak resmileşmiştir.
  2. Ajan Sorumluluğu: AI sadece içerik üreten (Generative) değil, iş yapan (Agentic) bir yapıya dönüştüğü için hukuk sistemi “hatayı kim yaptı?” sorusuna yanıt aramıştır.
  3. Yerelleşme: Türkiye’de KVKK ve TTB gibi kurumların sektörel rehberler yayınlaması, etik kuralların genelden özele indiğini göstermektedir.

Bilgi Notu:

Ajan Yapay Zeka (Agentic AI) ve İş Dünyasında Yeni Sorumluluk Dengesi

Yapay zeka teknolojileri, içerik üreten (Generative AI) sistemlerden, otonom olarak karar veren ve aksiyon alan (Agentic AI) sistemlere evrilmiştir. OECD Dijital Ekonomi Politikaları Komitesi’nin 8 Kasım 2025’te yayınladığı rehber, bu “ajanların” eylemlerinden doğan hukuki ve ticari sorumlulukları yeniden tanımlamaktadır. İş dünyası için artık kritik soru “Bunu kim yazdı?” değil, “Bu işlemi kim onayladı?” sorusudur.

Ajan Yapay Zeka (Agentic AI) Nedir?

Geleneksel yapay zekadan farkı, sadece çıktı üretmesi değil, bir hedef doğrultusunda araçları kullanarak eyleme geçmesidir.

  • Üretken YZ (Eski): Sizin için bir seyahat planı yazar.
  • Ajan YZ (Yeni): Sizin yerinize kredi kartınızı kullanır, uçak biletini satın alır, otel rezervasyonunu yapar ve takviminize işler.

OECD Kasım 2025 Rehberinin Getirdiği 3 Temel İlke

OECD’nin yeni çerçevesi, otonom ajanların “başıboş” kalmasını engellemek için şu üç standardı getirmiştir:

1. “Niyet vs. Uygulama” Sorumluluk Ayrımı (Intent vs. Execution)

  • Kural: Eğer kullanıcı ajana muğlak bir hedef verdiyse (Örn: “Bana en ucuz bileti al” diyip tarih/lokasyon belirtmemek), oluşan hatadan kullanıcı sorumludur.
  • Kural: Eğer kullanıcı net bir talimat verdiyse ancak ajan teknik bir hata veya halüsinasyon sonucu yanlış işlem yaptıysa (Örn: İstanbul yerine yanlışlıkla İslamabad’a bilet almak), sorumluluk hizmet sağlayıcıya (vendor) aittir.

2. Dijital Kimlik Zorunluluğu (Agent Identification)

Ajanlar, diğer sistemlerle (bankalar, e-ticaret siteleri, devlet kurumları) etkileşime girerken “İnsan değil, Yapay Zeka Ajanı” olduklarını belirten bir dijital imza kullanmak zorundadır. Bu, botların borsayı manipüle etmesini veya sahte trafik yaratmasını engellemeyi amaçlar.

3. “Devre Kesici” Mekanizması (Human Circuit Breaker)

Yüksek riskli işlemlerde (finansal transferler, hassas veri paylaşımı), ajanın işlemi tamamlamadan önce mutlaka bir insanın “son onayı”nı beklemesi zorunlu hale getirilmiştir. Tam otonomi, belirli bir risk limitinin (Örn: 1000$ üzeri harcama) altında sınırlandırılmıştır.

İş Dünyasına ve Sektörlere Olası Etkileri

SektörSenaryoRisk ve EtkiFinans & Bankacılık: Bir ajanın portföy yönetimi yaparken ani piyasa düşüşünde panik satışı yapması. OECD rehberine göre, “Devre Kesici” yoksa banka sorumlu tutulabilir. Algoritmik ticaret kuralları sıkılaşacaktır.

E-Ticaret & Perakende: Tedarik zinciri ajanının stok azaldığında otomatik olarak yanlış tedarikçiden 10.000 birim sipariş vermesi. Hatalı siparişlerin iade süreçleri ve “ajan hatası” sigortası yeni bir ticari alan oluşturacaktır.

İnsan Kaynakları: İşe alım ajanının, adayları elerken ayrımcı bir filtre kullanarak şirketi yasal riske atması. Ajanın karar mekanizmasının “açıklanabilir” (explainable) olması yasal zorunluluktur. Şirketler tazminat ödemek zorunda kalabilir.

Siber Güvenlik: Bir ajanın, şirketin verimliliğini artırmak için yetkisi olmayan bir dış sunucuya veri yüklemesi (Shadow AI). Veri sızıntısı sorumluluğu artık sadece IT’de değil, ajanı denetimsiz bırakan iş birimindedir.

* Bu rapor, ChatGPT5 ile oluşturulmuştur. 2025 yılı Kasım ayında yapay zeka etiği ve sorumlu AI alanında gerçekleşen önemli etkinlikleri, politika gelişmelerini ve vakaları özetlemektedir.