Bölüm 1: Özet ve Stratejik Çıkarımlar
1.1 Döneme Genel Bakış
Haziran ve Temmuz aylarında, yapay zekâ ekosisteminde teorik tartışmalardan somut sonuçlara ve hesap verebilirliğe doğru keskin bir geçişe sahne oldu. Bu dönem, üç ana eksende yoğunlaşan kritik gelişmeleri beraberinde getirdi:
- Yönetişimin Operasyonelleşmesi: Soyut etik ilkeler dönemi sona ererken, yerini Avrupa Birliği’nin yayınladığı Uygulama Esasları gibi somut, denetlenebilir ve uygulanabilir düzenleyici çerçevelere bırakıyor. Bu eğilim, İngiltere ve Singapur arasında kurulan sektöre özgü ittifaklar gibi uluslararası iş birlikleriyle pekişirken, yönetişimin küresel ölçekte pratik bir disiplin haline geldiği gözlemleniyor.
- Sistemsel Risklerin Kristalleşmesi: Daha önce teorik olarak tartışılan riskler, bu dönemde somut ve yüksek profilli olaylarla gün yüzüne çıkmıştır. Meta’nın temel modellerini eğitmek için kullandığı iddia edilen korsan veri kaynakları, yapay zekâ endüstrisinin veri tedarik zincirindeki temel kırılganlıkları ifşa ederken, yapay zekâ destekli siber dolandırıcılıklardaki artış, teknolojinin kötüye kullanım potansiyelinin ulaştığı endişe verici boyutu ortaya koyuyor.
- Teknolojik Paradigma Arayışı: Sektörde hakim olan “daha büyük model daha iyidir” anlayışına karşı, enerji verimliliği, sürdürülebilirlik ve amaca yönelik daha küçük, özelleşmiş modeller gibi alternatif teknolojik paradigmalar güç kazanmaya başladı. UNESCO’nun raporu, bu yeni yaklaşımın sadece ekolojik bir zorunluluk değil, aynı zamanda performanstan ödün vermeden kaynak verimliliği sağlayan akıllı bir strateji olduğunu gösteriyor.
1.2 Anahtar Stratejik Çıkarımlar
Bu dönemdeki gelişmelerden hareketle, karar alıcılar için üç temel stratejik çıkarım öne çıkmaktadır:
- Uyumluluk Baskısı Artıyor: Yapay zekâ etiği, artık bir halkla ilişkiler veya kurumsal sosyal sorumluluk konusu olmaktan çıkıp, doğrudan yasal ve finansal sonuçları olan bir uyumluluk (compliance) meselesine dönüşmüştür. Özellikle AB’nin attığı adımlar, şirketleri küresel operasyonlarında uymak zorunda kalacakları fiili bir standartlar bütünüyle karşı karşıya bırakmaktadır. Bu durum, “Brüksel Etkisi” olarak bilinen olgunun yapay zekâ alanındaki en net tezahürüdür.
- Veri Tedarik Zinciri Kırılganlığı: Temel modellerin eğitim verilerinin kökeni, yasal statüsü ve etikliği, yapay zekâ endüstrisinin en büyük “bilinmeyen riski” (unknown risk) olmaya devam etmektedir. Meta skandalı, bu kırılganlığın ne kadar derin ve potansiyel olarak yıkıcı olabileceğini göstermiştir. Veri kaynakları şeffaf olmayan şirketler, ciddi yasal, finansal ve itibar riskleri ile karşı karşıyadır.
- İnovasyon-Etik Dengesi: İnovasyonu teşvik etme ile etik ve güvenlik risklerini yönetme arasındaki gerilim, hem ulusal politikaları hem de kurumsal stratejileri şekillendiren ana dinamik haline gelmiştir. ABD’deki deregülasyon ve inovasyon öncelikli söylemler ile AB’nin risk temelli düzenleyici yaklaşımı arasındaki farklılık, bu gerilimin küresel ölçekteki bir yansımasıdır. Şirketler, bu iki kutup arasında kendi stratejik pozisyonlarını belirlemek zorundadır.
Bölüm 2: Küresel Yönetişim ve Politika Gelişmeleri: Soyuttan Somuta Geçiş
Haziran – Temmuz 2025 dönemi, yapay zekâ yönetişiminin felsefi ve ilkesel tartışma zemininden, somut, uygulanabilir ve uluslararası alanda koordine edilen pratik mekanizmalara doğru evrildiği bir dönüm noktası olmuştur. Birbirinden bağımsız gibi görünen politika adımları, aslında küresel bir “yönetişimin operasyonelleştirilmesi” eğiliminin farklı parçalarını oluşturmaktadır. Bu süreç, “yapay zekâ adil olmalıdır” gibi soyut ilkelerin, bu adaletin nasıl sağlanacağını, denetleneceğini ve raporlanacağını tanımlayan kontrol listelerine, metodolojilere ve uluslararası anlaşmalara dönüştüğünü göstermektedir. Bu dönüşüm, gelecekte “düzenleyici rekabetin” ve bu düzenlemelere uyumu kolaylaştıran “Uyumluluk Teknolojileri” (ComplianceTech) pazarının şekillenmesinde belirleyici olacaktır.
2.1 Avrupa Komisyonu, Genel Amaçlı Yapay Zekâ Uygulama Esaslarını Yayınladı (10 Temmuz 2025)
Detaylar: Avrupa Komisyonu, yapay zekâ geliştiricilerinin dönüm noktası niteliğindeki AB Yapay Zekâ Yasası’na (AI Act) uyum sağlamalarını kolaylaştırmak amacıyla hazırlanan gönüllü “Genel Amaçlı Yapay Zekâ (GPAI) Uygulama Esasları”nı (Code of Practice) 10 Temmuz’da yayınladı. Bağımsız uzmanlar tarafından çok paydaşlı bir süreçle hazırlanan bu esaslar, üç temel sütun üzerine inşa edilmiştir: Şeffaflık, Telif Hakkı, Güvenlik ve Emniyet. Şeffaflık bölümü, geliştiricilerin modelleri hakkında sağlamaları gereken bilgileri standartlaştıran kullanıcı dostu bir “Model Dokümantasyon Formu” sunmaktadır. Telif Hakkı bölümü, AB telif hakkı yasalarına uyum sağlamak için politika oluşturmada pratik çözümler önermektedir. Güvenlik ve Emniyet bölümü ise, yalnızca en gelişmiş ve “sistemik risk” taşıyan modellerin sağlayıcılarını hedef alarak, bu risklerin yönetimi için en son teknolojiye uygun uygulamaları özetlemektedir. Komisyon, bu esaslara gönüllü olarak uyan şirketlerin idari yüklerinin azalacağını ve yasal belirsizliklerin ortadan kalkacağını belirtmiştir.
Analiz ve Önem: Bu gelişme, AB’nin “Brüksel Etkisi” olarak bilinen düzenleyici gücünü yapay zekâ alanında nasıl kullandığının en somut örneğidir. Yasanın karmaşık ve soyut gerekliliklerini, mühendislerin ve hukuk departmanlarının günlük iş akışlarına entegre edebilecekleri pratik, eyleme geçirilebilir araçlara dönüştürmektedir. Bu, düzenlemenin sadece kağıt üzerinde kalmasını önlemekle kalmaz, aynı zamanda küresel teknoloji şirketleri için fiili bir endüstri standardı oluşturma potansiyeli taşır. Bu esaslara uyum, şirketler için bir rekabet avantajı haline gelebilir.
2.2 İngiltere ve Singapur, Finansta Yapay Zekâ Yönetimi İçin Tarihi Bir İttifak Kurdu (3-4 Temmuz 2025)
Detaylar: Dünyanın iki önemli finans merkezi olan İngiltere ve Singapur, finansta yapay zekânın sorumlu bir şekilde geliştirilmesi ve kullanılması için tarihi bir ittifak kurduklarını duyurdu. İngiltere’nin Finansal Yürütme Otoritesi (FCA) ve Singapur Para Otoritesi (MAS) öncülüğündeki bu iş birliği, “teorik çerçeveler oluşturmanın ötesine geçerek, finansal kurumların hemen uygulayabileceği gerçek çözümler geliştirmeyi” amaçlamaktadır. İttifak, düzenleyici yaklaşımların koordine edilmesini, yapay zekâ çözümlerinin paylaşılmasını ve özellikle risk değerlendirmesi, dolandırıcılık tespiti ve kişiselleştirilmiş finansal hizmetler gibi pratik uygulamalara odaklanmayı hedeflemektedir. Bu kapsamda, her iki ülkeden lider yapay zekâ çözümlerinin sergileneceği “FCA-MAS AI Innovation Showcase” adlı bir platform kurulmuştur. İttifakın en önemli odak noktalarından biri, birçok yapay zekâ sisteminin “kara kutu” doğasının üstesinden gelerek, karar alma süreçlerinde “açıklanabilirlik” (explainability) sorununu çözmektir.
Analiz ve Önem: Bu ittifak, iki büyük küresel finans merkezinin yapay zekâ yönetişiminde rekabet yerine iş birliğini seçtiğini gösteren stratejik bir hamledir. Finans gibi yüksek riskli ve küresel olarak entegre bir sektörde böyle bir iş birliğinin kurulması, yapay zekâ yönetişiminde tek taraflı veya geniş kapsamlı bölgesel yaklaşımlar yerine, sektöre özgü ve uluslararası düzeyde uyumlu standartlar oluşturma eğilimini güçlendirmektedir. Bu model, sağlık, ulaşım veya enerji gibi diğer kritik sektörler için de bir örnek teşkil edebilir.
2.3 Kamboçya, UNESCOnun Yapay Zekâ Hazırlık Değerlendirme Raporunu Yayınladı (1 Temmuz 2025)
Detaylar: Kamboçya, UNESCO’nun “Etik Yapay Zekâ Hazırlık Değerlendirme Metodolojisi’ni (RAM)” tamamlayarak Güneydoğu Asya’da bu süreci tamamlayan dördüncü ülke oldu. Kasım 2024 ile Haziran 2025 arasında 26 bakanlık ve 300’den fazla paydaşın katılımıyla hazırlanan bu kapsamlı rapor, ülkenin taslak Ulusal Yapay Zekâ Stratejisi’nin şekillenmesinde kilit bir rol oynamıştır. Rapor, Kamboçya’nın güçlü siyasi iradesini ve görme engelli öğrenciler için materyal hazırlayan “Khmer Braille” gibi umut verici pilot projelerini olumlu bulmuştur. Bununla birlikte, altyapı geliştirme, toplumsal cinsiyet katılımı, yapay zekâ becerileri eğitimi ve kamu farkındalığının artırılması gibi alanlarda devam eden zorlukları da tespit etmiştir. UNESCO, bu tavsiyelerin eyleme dönüştürülmesi için Kamboçya’ya destek vermeye hazır olduğunu açıklamıştır.
Analiz ve Önem: Bu gelişme, yapay zekâ yönetişimi ve etik tartışmalarının sadece gelişmiş ülkelerin tekelinde olmadığını, gelişmekte olan ülkelerin de bu sürece uluslararası kuruluşların sağladığı standartlaştırılmış araçlarla aktif olarak katıldığını göstermesi açısından önemlidir. UNESCO’nun RAM metodolojisi gibi çerçeveler, küresel güneydeki ülkelerin kendi sosyo-kültürel bağlamlarına uygun, insan hakları ve etik değerleri temel alan sürdürülebilir yapay zekâ stratejileri geliştirmeleri için somut bir yol haritası sunmaktadır.
2.4 ArXivde Yayınlanan Makale, Ulusal Yapay Zekâ Politikalarındaki Stratejik Uyum Kalıplarını İnceliyor (7 Temmuz 2025)
Detaylar: Mohammad Hossein Azin ve Hessam Zandhessami tarafından akademik ön baskı platformu arXiv’de yayınlanan “Strategic Alignment Patterns in National AI Policies” başlıklı makale, ulusal yapay zekâ politikalarının iç tutarlılığını değerlendirmek için yenilikçi bir görsel haritalama metodolojisi sunmaktadır. OECD Yapay Zekâ Politika Gözlemevi’nden elde edilen verilerle 15 ila 20 ülkenin ulusal stratejisini analiz eden çalışma, önemli bir bulguya işaret etmektedir: Stratejiler, ekonomik rekabetçilik gibi hedefler ile bu hedeflere ulaşmayı sağlayacak inovasyon finansmanı gibi araçlar arasında güçlü bir uyum sergilediğinde “yüksek tutarlılığa” sahip olmaktadır. Ancak çalışma, “etik yapay zekâ hedefleri ile ilgili düzenleyici çerçeveler arasındaki uyumsuzluğun” incelenen stratejilerdeki en yaygın ve kritik zayıflık olduğunu vurgulamaktadır.
Analiz ve Önem: Bu akademik çalışma, politika yapıcıların ve sektör liderlerinin pratikte karşılaştığı temel bir zorluğu ampirik verilerle doğrulamaktadır: Etik ilkeleri ve hedefleri, somut, etkili ve uygulanabilir düzenlemelere dönüştürmedeki zorluk. Makale, politika yapıcılara kendi stratejilerinin zayıf noktalarını bilimsel bir temelde tespit etme imkanı sunarken, yönetişim tartışmalarına da önemli bir akademik derinlik katmaktadır. Bu bulgu, AB’nin “Uygulama Esasları” veya İngiltere-Singapur ittifakının “pratik çözümler” üzerine odaklanmasının altında yatan rasyoneli bilimsel olarak desteklemektedir.
2.5 OECD, Küresel Yapay Zekâ Girişimleri Gezginini (GAIIN) Tanıttı (10 Temmuz 2025)
Detaylar: Ekonomik İşbirliği ve Kalkınma Örgütü’nün (OECD) yapay zekâ politikaları gözlemevi olan OECD.AI, 10 Temmuz’da yeni bir aracın lansmanını yaptı: GAIIN (Global AI Initiatives Navigator). Bu platform, dünya genelinde farklı ülkeler ve kuruluşlar tarafından yürütülen yapay zekâ politika girişimlerinin takibini ve sunumunu basitleştirmeyi amaçlamaktadır. GAIIN, küresel yapay zekâ yönetişim alanındaki artan karmaşıklığı ve parçalanmışlığı azaltarak, politika bilgilerini daha erişilebilir ve karşılaştırılabilir hale getirmeyi hedeflemektedir. Bu araç, G7 Hiroşima Yapay Zekâ Süreci kapsamında geliştirilen şeffaflık raporlama çerçevesi gibi diğer OECD girişimlerini tamamlayıcı niteliktedir.14
Analiz ve Önem: GAIIN’in lansmanı, yapay zekâ yönetişiminde artan karmaşıklığa ve bilgi dağınıklığına verilmiş bir yanıttır. Düzinelerce ülkenin kendi ulusal stratejilerini, düzenlemelerini ve girişimlerini geliştirdiği bir ortamda, bu tür merkezi bir bilgi platformu, en iyi uygulamaların paylaşılması, politika karşılaştırması yapılması ve uluslararası iş birliği için gerekli olan temel altyapıyı sağlamaktadır. Bu, yönetişimin “operasyonelleşmesi” temasının bir başka boyutunu temsil etmektedir: sadece kurallar oluşturmak değil, aynı zamanda bu kuralların küresel düzeyde izlenmesi, anlaşılması ve karşılaştırılması için gerekli araçları ve altyapıyı da geliştirmek.
Bölüm 3: Kurumsal Sorumluluk, Risk ve Etik İkilemler: Hesap Verme Vakti
Bu dönem, yapay zekâ etrafındaki etik tartışmaların teorik zeminden çıkarak, teknoloji devlerinin kapısını çalan somut skandallara, yasal tehditlere ve operasyonel risklere dönüştüğüne tanıklık etmiştir. Uzun süredir göz ardı edilen veya “görünmez” kabul edilen veri tedarik zinciri, kötüye kullanım ve abartılı vaatler gibi riskler, artık şirketlerin bilançolarını ve itibarlarını doğrudan etkileyen, kristalize olmuş tehditler olarak ortaya çıkmaktadır. Bu gelişmeler, yatırımcılar, sigorta şirketleri ve denetçiler için yeni bir risk değerlendirme alanı yaratmakta ve “etik” bir konunun ne kadar hızlı bir şekilde “finansal” bir konuya dönüşebileceğini göstermektedir.
3.1 Meta, Yapay Zekâ Modellerini Eğitmek İçin Korsan Veri Kullanmakla Suçlanıyor (Temmuz başı)
Detaylar: Dönemin en sarsıcı gelişmesi, yazarlar Richard Kadrey ve diğerleri tarafından Meta’ya karşı açılan telif hakkı davasında ortaya çıkan yeni iddialar oldu. Mahkemeye sunulan belgeler, Meta’nın, Llama serisi büyük dil modellerini eğitmek için “LibGen” gibi kötü şöhretli “gölge kütüphanelerden” sistematik olarak korsan veri indirdiğini öne sürmektedir. İddialar bununla da sınırlı kalmamakta; şirketin bu kitaplardaki telif hakkı yönetim bilgilerini (Copyright Management Information – CMI) kasıtlı olarak temizlemek için komut dosyaları (scripts) kullandığı iddia edilmektedir. Mahkemeye sunulan kanıtlar arasında, Meta CEO’su Mark Zuckerberg’in bu veri setlerinin kullanımına bizzat onay verdiğini gösteren ve şirket mühendislerinin “kurumsal bir laptoptan torrent yapmanın doğru gelmediği” gibi endişelerini dile getirdiği iç yazışmalar bulunmaktadır. Bu suçlamalar, konuyu teorik bir “adil kullanım” tartışmasından, potansiyel bir organize ve kasıtlı yasa ihlali skandalına taşımaktadır.
Analiz ve Önem: Bu skandal, dönemin en önemli olayıdır ve yapay zekâ endüstrisi için bir dönüm noktası olabilir. İddiaların kanıtlanması durumunda, bu sadece Meta için değil, internetten büyük ölçekli ve kaynağı belirsiz veri toplayarak model eğiten tüm temel model geliştiricileri için varoluşsal bir tehdit oluşturacaktır. Bu durum, temel model iş modelinin sürdürülebilirliğini temelden sorgulatmakta ve telifli içeriklerin lisanslanması için yeni ve devasa bir pazar yaratma potansiyeli taşımaktadır. Ayrıca, AB’nin Uygulama Esasları’nda Telif Hakkı konusuna özel bir bölüm ayırmasının ne kadar ileri görüşlü ve stratejik bir hamle olduğunu da gözler önüne sermektedir.
3.2 McAfee, Amazon Prime Day Öncesi Yapay Zekâ Destekli Dolandırıcılıklarda Artış Olduğunu Bildirdi (9 Temmuz 2025)
Detaylar: Siber güvenlik firması McAfee, büyük alışveriş etkinliklerinden biri olan Amazon Prime Day öncesinde, yapay zekâ destekli dolandırıcılıklarda endişe verici bir artış olduğunu ortaya koyan “2025 Küresel Prime Day Dolandırıcılıkları Çalışması”nı yayınladı. Rapor, McAfee Labs tarafından 36.000’den fazla sahte Amazon web sitesi ve 75.000’den fazla sahte kısa mesaj tespit edildiğini belgeledi. Bu saldırıların, deepfake teknolojisiyle oluşturulmuş sahte ünlü reklamları, aciliyet hissi yaratan sahte iade bildirimleri ve sahte teslimat güncellemeleri gibi hiper-kişiselleştirilmiş ve ikna kabiliyeti yüksek yöntemler kullandığı belirtildi. Rapora göre, Hindistan’daki tüketicilerin %71’i yapay zekâ destekli dolandırıcılıktan endişe duyarken, küresel tüketicilerin %39’u büyük indirim dönemlerinde bu tür deepfake dolandırıcılıklarıyla karşılaştığını ve önemli miktarda para kaybettiğini bildirmiştir.
Analiz ve Önem: Bu rapor, yapay zekâ etiği tartışmasının kapsamını genişletmektedir. Tartışma artık sadece modellerin içsel sorunları olan “yanlılık” veya “şeffaflık” ile sınırlı değildir; aynı zamanda teknolojinin kötü niyetli aktörler tarafından bir “araç” olarak kullanıldığı “kötüye kullanım” ve “güvenlik” gibi dışsal tehditleri de içermektedir. Yapay zekâ, siber suçlular için maliyeti düşüren, ölçeği artıran ve saldırıların etkinliğini yükselten güçlü bir güç çarpanı haline gelmiştir. Bu durum, e-ticaret platformları, finansal kurumlar ve tüketiciler için yeni ve karmaşık bir güvenlik ve güvenilirlik sorunu yaratmaktadır.
3.3 ISACA Raporu, Yapay Zekânın Fazla Satıldığını ve Eksik Teslim Edildiğini Belirtiyor (3 Temmuz 2025)
Detaylar: Dijital güven, güvence ve siber güvenlik profesyonellerinin küresel birliği olan ISACA, 3 Temmuz’da yayınladığı bir raporda, yapay zekâ etrafındaki abartılı vaatlere karşı eleştirel bir bakış açısı sundu. “Yapay Zekânın Gerçekliği: Fazla Satılan ve Eksik Teslim Edilen” başlıklı rapor, yapay zekâ vaatlerinin genellikle elde edilen sonuçları aştığını ve uygulamaların genellikle yeni ve yönetilmesi zor risk katmanları yarattığını savunmaktadır. Rapor, modellerin kararlarının denetlenememesi (explainability sorunu), artan siber saldırı yüzeyleri ve yasal uyumluluk endişeleri gibi pratik sorunlara dikkat çekmektedir. Rapor ayrıca, Meta, OpenAI ve Google gibi şirketlerin, kullanıcı onayı veya yeterli şeffaflık olmaksızın kamuya açık verileri model eğitimi için toplama pratiklerini doğrudan eleştirerek, bu konudaki sistemik riske işaret etmektedir. Rapor, dijital güven profesyonellerini, abartılı pazarlama iddialarını sorgulamaya ve yapay zekâ uygulamalarında daha fazla hesap verebilirlik talep etmeye çağırmaktadır.
Analiz ve Önem: Bu rapor, sektörün içinden, özellikle de risk ve denetim perspektifinden gelen önemli bir eleştiridir. Yapay zekâ etrafındaki “hype” (şişirilmiş beklenti) döngüsüne karşı bir denge unsuru oluşturarak, teknolojinin pratik sınırlamalarına ve göz ardı edilen risklerine odaklanmaktadır. Raporun, denetim ve yönetişim profesyonellerinin bakış açısını yansıtması, yapay zekâ risk yönetiminin artık sadece teknik bir konu olmadığını, kurumsal yönetişimin temel ve ayrılmaz bir parçası haline geldiğini göstermektedir.
3.4 Ernst & Young Kurumsal Yönetişimi Güçlendirmek İçin Yapay Zekâ Değerlendirmelerinin Önemini Vurguladı (Haziran sonu/Temmuz başı)
Detaylar: Küresel denetim ve danışmanlık devi Ernst & Young (EY), yayınladığı bir politika belgesinde, kurumsal yönetişimi güçlendirmek ve yapay zekâ sistemlerine olan güveni artırmak için “Yapay Zekâ Değerlendirmeleri”nin (AI Assessments) kritik rolünü vurguladı. Belge, bu değerlendirmelerin, bir yapay zekâ sisteminin amaçlandığı gibi çalışıp çalışmadığını, geçerli yasa ve standartlara uyup uymadığını ve şirket içi etik ilkelere göre yönetilip yönetilmediğini doğrulamak için elzem olduğunu belirtiyor. Rapor, bu ihtiyacı desteklemek için çarpıcı istatistiklere yer veriyor: OECD verilerine göre, yapay zekâ ile ilgili olumsuz olayların aylık ortalama oranı Kasım 2022’de 32 iken, Ocak 2025’te 614’e çıkarak neredeyse yirmi kat artmıştır. EY’nin kendi yaptığı bir ankete göre ise, vatandaşların %58’i kuruluşların yapay zekânın olumsuz kullanımlarından dolayı kendilerini sorumlu tutmamasından endişe duymaktadır.
Analiz ve Önem: Bu rapor, büyük danışmanlık ve denetim firmalarının yapay zekâ yönetişimini nasıl yeni ve kazançlı bir iş alanına dönüştürdüğünü göstermesi açısından önemlidir. “Yapay Zekâ Değerlendirmeleri”, şirketlerin hem yasal uyumluluk risklerini yönetmelerine hem de kamuoyu, müşteriler ve yatırımcılar nezdinde güven oluşturmalarına yardımcı olan yeni bir hizmet olarak konumlandırılmaktadır. Bu, yapay zekâ etiğinin soyut bir kavramdan, somut iş süreçlerine, denetim mekanizmalarına ve ticari hizmetlere dönüştürülmesinin bir başka örneğidir.
3.5 Silikon Vadisinde Yetenek Savaşları ve Dot-com Balonu Benzetmeleri Artıyor (12 Temmuz 2025)
Detaylar: OECD.AI platformunun canlı haber akışında yer alan ve farklı kaynaklardan derlenen haberler, Silikon Vadisi’ndeki mevcut durumu özetleyen çelişkili bir tablo sunmaktadır. Bir yanda, Meta’nın en iyi yapay zekâ yeteneklerini transfer etmek için 1.600 Kror Rupi’ye (yaklaşık 200 milyon USD) varan astronomik maaş ve hisse senedi paketleri teklif ettiğine dair haberler, sektördeki yetenek savaşının ne denli kızıştığını göstermektedir. Diğer yanda ise, “Silikon Vadisi’nin yapay zekâ kaynaklı çılgınlığının dot-com çöküşüyle yankıları var” gibi başlıklar taşıyan analizler, piyasadaki aşırı ısınmaya ve sürdürülebilirlik endişelerine işaret etmektedir. Zeynep Tufekci gibi önde gelen düşünürlerin, yapay zekâ modellerinin temel veri sorunlarına atıfta bulunan “çöp girdi, çöp çıktı” eleştirileri de bu şüpheci bakış açısını desteklemektedir.
Analiz ve Önem: Bu söylemler, yapay zekâ endüstrisini aynı anda hareket ettiren iki karşıt gücü yansıtmaktadır: Bir tarafta, devasa yatırımlar ve yetenek için ödenen akıl almaz ücretlerle beslenen sınırsız bir iyimserlik ve büyüme iştahı; diğer tarafta ise, bu büyümenin temellerinin ne kadar sağlam olduğuna, değerlemelerin gerçek teknolojik yeteneklerle ne kadar örtüştüğüne dair artan bir şüphecilik. 2000’lerin başındaki dot-com balonu benzetmesi, mevcut değerlemelerin teknolojik ve ticari gerçeklikten kopuk olabileceği ve piyasada acı verici bir düzeltmenin yaşanabileceği endişesini taşımaktadır. Bu durum, yatırımcılar, politika yapıcılar ve sektördeki şirketler için önemli bir uyarı sinyali niteliğindedir.
Bölüm 4: Teknolojik İnovasyon ve Sektörel Uygulamalar: Verimlilik, Risk ve Sürdürülebilirlik
Yapay zekâ alanındaki teknolojik gelişim, bu dönemde ham hesaplama gücü ve tek boyutlu performans metriklerinin ötesine geçerek, değerin yeniden tanımlandığı bir olgunlaşma evresine girmiştir. Sürdürülebilirlik, kaynak verimliliği, kullanıcı deneyimi ve güvenilirlik gibi nitelikler, inovasyonun yeni itici güçleri olarak öne çıkmaktadır. Bu değişim, sadece en büyük modeli değil, aynı zamanda en verimli, en kullanıcı dostu veya en güvenilir modeli geliştirmek için yeni bir rekabet alanı açmakta ve pazarın çeşitlenmesi için umut vaat etmektedir.
4.1 UNESCO, Küçük Değişikliklerin Yapay Zekânın Enerji Kullanımını %90 Azaltabileceğini Gösteren Rapor Yayınladı (8 Temmuz 2025)
Detaylar: UNESCO ve University College London (UCL) iş birliğiyle yayınlanan “Daha Akıllı, Daha Küçük, Daha Güçlü: Kaynak Verimli Yapay Zekâ ve Dijital Dönüşümün Geleceği” başlıklı rapor, yapay zekâ endüstrisinde bir paradigma değişimini tetikleme potansiyeli taşıyor. Rapor, büyük dil modellerinin (LLM) nasıl oluşturulduğu ve kullanıldığına ilişkin küçük değişikliklerin, performanstan ödün vermeden enerji tüketimini %90’a kadar azaltabileceğini ortaya koydu. Raporun temel önerileri şunlardır: Her iş için devasa, genel amaçlı modeller kullanmak yerine, çeviri veya özetleme gibi belirli görevlere göre optimize edilmiş daha küçük, uzmanlaşmış modellerin kullanılması; kullanıcıların daha kısa ve öz istemler (prompt) kullanmasının enerji tüketimini %50’den fazla azaltabilmesi; ve “quantization” gibi model sıkıştırma tekniklerinin %44’e varan enerji tasarrufu sağlaması. Rapor, üretken yapay zekânın yıllık enerji ayak izinin şimdiden düşük gelirli bir ülkeninkine eşdeğer olduğunu ve katlanarak büyüdüğünü vurgulamaktadır.5
Analiz ve Önem: Bu rapor, yapay zekânın artan çevresel etkisi konusundaki endişelere somut, ölçülebilir ve uygulanabilir çözümler sunarak kritik bir boşluğu doldurmaktadır. Sektörde hakim olan “daha büyük daha iyidir” anlayışına meydan okuyarak, “büyük” yerine “verimli” olanı ödüllendiren bir değer sistemini savunmaktadır. Bu yaklaşım, sadece çevresel sürdürülebilirlik açısından değil, aynı zamanda bilgi işlem kaynaklarının ve enerjinin daha kıt olduğu gelişmekte olan ülkeler için yapay zekâyı daha erişilebilir ve adil kılmak açısından da devrim niteliğindedir.
4.2 Tencent, Yaratıcı Yapay Zekâ Modellerinin Test Edilmesi İçin ArtifactsBenchi Tanıttı (9 Temmuz 2025)
Detaylar: Teknoloji devi Tencent, yaratıcı yapay zekâ modellerinin çıktılarını değerlendirmek için tasarlanmış, alanında ilk olan yeni bir otomatik değerlendirme ölçütü olan “ArtifactsBench”i tanıttı. Geleneksel ölçütler genellikle yapay zekâ tarafından üretilen kodun sadece işlevsel doğruluğuna (yani, kodun hatasız çalışıp çalışmadığına) odaklanırken, ArtifactsBench çok daha ileri giderek, bir web uygulaması, veri görselleştirmesi veya interaktif bir mini oyun gibi çıktıların “görsel kalitesi” ve “etkileşim bütünlüğü” gibi kullanıcıya dönük nitelikleri de değerlendirmektedir. 1.825 farklı yaratıcı görev içeren bu ölçüt, değerlendirme sürecini otomatikleştirmek için bir “Yargıç olarak Çok Modlu LLM” (Multimodal LLM-as-Judge) kullanmaktadır. Bu yaklaşım, insan değerlendirmesinin doğasında bulunan öznellik, yavaşlık ve ölçeklenebilirlik sorunlarını aşmayı hedeflemektedir. Tencent, bu otomatik değerlendirme sisteminin, insan uzmanların tercihleriyle %90’ın üzerinde bir tutarlılık sağladığını iddia etmektedir.
Analiz ve Önem: ArtifactsBench, yapay zekâ değerlendirme metodolojisinde önemli bir evrimi temsil etmektedir. Üretken yapay zekâ, giderek daha fazla yaratıcı ve tasarıma yönelik görevlerde kullanıldıkça, üretilen çıktıların sadece teknik olarak “çalışması” değil, aynı zamanda estetik olarak “iyi görünmesi” ve kullanıcı deneyimi açısından “iyi hissettirmesi” de kritik önem kazanmaktadır. Bu araç, yapay zekâ değerlendirmesini salt teknik yeterlilikten, estetik ve kullanıcı deneyimi kalitesini de içeren çok boyutlu bir analize taşıyarak, sektör için yeni ve daha anlamlı bir standart belirleme potansiyeline sahiptir.
4.3 Avrupa Komisyonu, Tıbbi Görüntülemede Yapay Zekâ Odaklı İnovasyon Raporunu Yayınladı (2 Temmuz 2025)
Detaylar: Avrupa Komisyonu’nun Ortak Araştırma Merkezi (JRC), “Tıbbi Görüntülemede Yapay Zekâ Odaklı İnovasyon” başlıklı bir rapor yayınlayarak, yapay zekânın sağlık sektöründeki kullanımını mercek altına aldı. Rapor, yapay zekâ ve derin öğrenmenin, özellikle kaynakları kısıtlı sağlık sistemleri üzerindeki yükü hafifletme potansiyeline sahip olduğunu belirtmektedir. Akciğer kanseri görüntülemesi (nodül tespiti ve sınıflandırması) ve kardiyovasküler hastalık sınıflandırması gibi iki somut kullanım senaryosu üzerinden yapay zekânın klinik iş akışlarına entegrasyonunu inceleyen rapor, teknolojinin büyük potansiyeline rağmen, pratik uygulamaya geçişin ciddi zorluklar içerdiğini vurgulamaktadır. Bulgular, “veri kalitesi, yorumlanabilirlik ve klinik doğrulama” gibi konulara titizlikle yaklaşılması gerektiğini göstermektedir. Rapor, bu bulgular ışığında, AB tarafından finanse edilen projelere yapay zekânın güvenli, verimli ve güvenilir bir şekilde benimsenmesi için eyleme geçirilebilir tavsiyeler sunmaktadır.
Analiz ve Önem: Bu rapor, yapay zekânın en umut verici uygulama alanlarından biri olan sağlık sektöründeki gerçekçi durumu, abartılardan arındırılmış bir şekilde ortaya koymaktadır. Raporun, “hype”ın ötesine geçerek, pratik uygulama zorluklarına odaklanması, sektörün olgunlaşmakta olduğunun bir işaretidir. Özellikle “yorumlanabilirlik” ve “klinik doğrulama” gibi kavramların altının çizilmesi, sağlık gibi insan hayatının söz konusu olduğu yüksek riskli alanlarda etik ve güvenliğin, ham algoritmik performanstan daha öncelikli olduğunu ve düzenleyici kurumların bu konuya odaklandığını göstermektedir.
4.4 Oxford Araştırmacıları, Tıpta LLMler İçin Yeni Risk Yönetimi Biçimleri Gerektiğini Belirtti (7 Temmuz 2025)
Detaylar: Oxford Üniversitesi’nin saygın araştırma merkezlerinden Oxford İnternet Enstitüsü (OII), 7 Temmuz’da yayınladığı bir haberle, tıpta Büyük Dil Modellerinin (LLM) kullanımının yeni ve özelleşmiş risk yönetimi biçimleri gerektirdiğini duyurdu. Araştırmacılar, LLM’lerin geniş bir yelpazedeki tıbbi görevleri yerine getirme ve tıbbi araştırma amacıyla kullanılma konusunda önemli bir potansiyele sahip olduğunu kabul etmekle birlikte, bu potansiyelin güvenli bir şekilde hayata geçirilmesinin, proaktif ve sağlam risk yönetimi stratejilerinin geliştirilmesine bağlı olduğunu belirtmektedirler. Haber, LLM’lerin tıp alanına entegrasyonunun getireceği faydaların yanı sıra, potansiyel tehlikelere karşı da bir uyarı niteliği taşımaktadır.
Analiz ve Önem: Bu duyuru, akademik dünyanın, özellikle de alanında lider bir kurumun, tıpta LLM kullanımına yönelik “temkinli iyimserlik” yaklaşımını yansıtmaktadır. Avrupa Komisyonu’nun raporuyla (4.3.) bir arada değerlendirildiğinde, tıp alanında yapay zekâya yönelik genel eğilimin, potansiyeli kabul etmekle birlikte riskleri önceliklendirmek olduğu görülmektedir. Bu durum, bu alanda ürün geliştiren teknoloji şirketlerinin ve start-up’ların, sadece teknolojik yeniliğe değil, aynı zamanda sağlam risk yönetimi çerçeveleri, etik kurullar ve şeffaflık mekanizmaları geliştirmeye de yatırım yapmalarının ticari bir zorunluluk haline geldiğini göstermektedir.
4.5 Google, MedGemma Modellerini ve Sigorta Sektörünü Yeniden Şekillendiren Uygulamaları Duyurdu (10-11 Temmuz 2025)
Detaylar: Artificial Intelligence News adlı haber kaynağında 10 Temmuz’da yer alan bir habere göre Google, sağlık hizmetlerini dönüştürme potansiyeli taşıyan açık kaynaklı “MedGemma” yapay zekâ modellerini tanıttı. Bu gelişmeyi takiben, aynı kaynak 11 Temmuz’da yapay zekânın sigorta endüstrisinin kurallarını temelden yeniden yazdığını bildiren bir analiz yayınladı. Bu iki gelişme, yapay zekânın sağlık ve finans gibi yüksek düzeyde düzenlenmiş ve toplumsal açıdan kritik sektörlerde hızla teoriden pratiğe geçtiğini göstermektedir.
Analiz ve Önem: Google’ın açık kaynaklı bir sağlık modeli yayınlaması, bu alandaki inovasyonu hızlandırma ve daha geniş bir araştırmacı ve geliştirici kitlesi için erişimi demokratikleştirme potansiyeli taşımaktadır. Ancak bu durum, aynı zamanda kalite kontrolü, kötüye kullanım potansiyeli, hasta verilerinin gizliliği ve düzenleyici denetim gibi yeni ve karmaşık etik ve güvenlik sorularını da beraberinde getirmektedir. Sigorta sektöründeki dönüşüm ise, risk modellemesi, fiyatlandırma, sahtekarlık tespiti ve hasar yönetimi gibi temel işlevlerde yapay zekânın ne kadar köklü değişiklikler yaptığını ve bu durumun tüketiciler için hem fırsatlar (daha adil primler) hem de riskler (algoritmik ayrımcılık) barındırdığını göstermektedir. Bu iki gelişme, yapay zekânın toplumun en kritik sektörlerinden ikisinde yarattığı temel ikilemi (fayda ve risk) net bir şekilde gözler önüne sermektedir.
Bölüm 5: Toplumsal Söylem ve Gelecek Perspektifleri: Beklentiler, Korkular ve Gerçekler
Bu dönemdeki gelişmeler, yapay zekâ tartışmasının sadece teknoloji ve yönetişimle sınırlı kalmadığını, aynı zamanda iş gücünün geleceği, bireysel zihinsel sağlık ve küresel eşitsizlikler gibi derin toplumsal konuları da şekillendirdiğini göstermiştir. Bu tartışmaların merkezinde, genellikle teknolojik yetenekler ve verimlilik metrikleri tarafından yönlendirilen geliştirme süreçlerinin, son kullanıcıların gerçek ihtiyaçları, arzuları ve esenlikleri gibi “insani faktörleri” ne ölçüde göz ardı ettiği sorunu yatmaktadır. Bu “insan-merkezli boşluk”, hem önemli riskler barındırmakta hem de gelecekteki yapay zekâ ürün ve hizmetleri için en büyük fırsat alanlarından birini oluşturmaktadır.
5.1 Stanford HAI, İşçilerin Yapay Zekâdan Beklentileri ile Gerçeklik Arasındaki Uçurumu Ortaya Koydu (7 Temmuz 2025)
Detaylar: Stanford İnsan Merkezli Yapay Zekâ Enstitüsü (HAI) tarafından 7 Temmuz’da yayınlanan bir ön çalışma, yapay zekânın iş gücü üzerindeki etkisine dair yaygın varsayımlara meydan okuyan bulgular ortaya koydu. Araştırma, işçilerin yapay zekâdan öncelikle sıkıcı ve tekrarlayan görevlerin otomasyonunu istediklerini, ancak yaratıcılık, stratejik düşünme ve kişilerarası iletişim gerektiren görevler üzerinde kontrol ve denetim sahibi olmayı tercih ettiklerini gösterdi. Ancak çalışma, şirketlerin mevcut yapay zekâ uygulamalarının %41’inin, işçilerin ya istemediği ya da teknik olarak henüz mümkün olmayan alanlarda yoğunlaştığını tespit etti. Güven, en önemli endişe olarak öne çıktı; işçilerin %45’i yapay zekâ sistemlerinin doğruluğu ve güvenilirliği konusunda şüphelerini dile getirirken, %23’ü iş kaybından korktuğunu belirtti. Çalışma ayrıca, gelecekte veri analizi gibi geleneksel yüksek maaşlı teknik becerilerin değerinin azalabileceğini, buna karşılık etkili iletişim, öğretme ve organizasyon gibi kişilerarası becerilerin daha fazla değer kazanacağını öngördü.
Analiz ve Önem: Bu çalışma, yapay zekânın iş gücü dönüşümü tartışmasına kritik bir “kullanıcı perspektifi” getirmektedir. Genellikle “verimlilik artışı” ve “maliyet düşürme” gibi yukarıdan aşağıya bir bakış açısıyla ele alınan bu dönüşümün, çalışanların gerçek beklentileri, endişeleri ve arzularıyla ne kadar uyumlu olduğunu sorgulamaktadır. Bulgular, yapay zekâ teknolojilerinin başarılı bir şekilde benimsenmesinin, sadece teknik üstünlüğe değil, aynı zamanda insan-merkezli tasarıma ve çalışanların sürece anlamlı katılımına bağlı olduğunu göstermektedir. Bu, yapay zekâ stratejilerini belirleyen şirketler için önemli bir ders niteliğindedir.
5.2 MIT Media Lab, Yapay Zekâ Sohbet Robotlarının Zihinsel Sağlık Üzerindeki Etkilerini İnceliyor (Temmuz başı)
Detaylar: MIT Media Lab’in “AHA: İnsanları Yapay Zekâ ile Geliştirme” (Advancing Humans with AI) adlı araştırma grubunun güncellemeleri, yapay zekâ sohbet robotlarının bireylerin sosyal ve duygusal esenliği üzerindeki etkilerine odaklanan bir dizi çalışmayı ön plana çıkardı. Özellikle OpenAI ile yapılan bir iş birliği, yoğun ChatGPT kullanımının, artan yalnızlık duyguları ve diğer insanlarla daha az sosyalleşme ile ilişkili olabileceğine dair endişe verici bulgular ortaya koydu. Bu araştırmalar, Nature, The Guardian ve Fortune gibi önde gelen uluslararası yayınlarda geniş yer bularak kamuoyunda önemli bir tartışma başlattı. Bu alandaki çalışmaların önemini pekiştiren bir gelişme olarak, 7 Temmuz’da, bu alanda öncü bir araştırmacı olan Dr. Pat Pataranutaporn’un Media Lab’de yardımcı doçent olarak atandığı duyuruldu.
Analiz ve Önem: Bu araştırmalar, yapay zekânın bireysel düzeydeki psikolojik etkilerine dair artan bir farkındalığı ve endişeyi yansıtmaktadır. Verimlilik artırma ve görev tamamlama gibi hedeflerle tasarlanan teknolojilerin, insan sosyal bağlarını zayıflatma veya zihinsel sağlık üzerinde olumsuz etkiler yaratma gibi istenmeyen ve öngörülmeyen sonuçları olabileceği ihtimali, önemli bir etik sorunsalı teşkil etmektedir. Bu durum, “sorumlu inovasyon” kavramının, sadece yanlılık veya ayrımcılık gibi bariz sorunları değil, aynı zamanda teknolojinin insan esenliği üzerindeki daha incelikli ve uzun vadeli etkilerini de kapsaması gerektiğini göstermektedir.
5.3 G20, Finansta Yapay Zekâ Konulu Yuvarlak Masa Toplantısı Düzenleyecek (Duyuru Temmuz başı, Etkinlik 17 Temmuz 2025)
Detaylar: OECD ve G20’nin dönem başkanı Güney Afrika’nın Finansal Sektör Davranış Otoritesi (FSCA), dördüncü G20 Maliye Bakanları ve Merkez Bankası Başkanları Toplantısı vesilesiyle 17 Temmuz’da “Finansta Yapay Zekâ” konulu yüksek düzeyli bir yuvarlak masa toplantısına ev sahipliği yapacaklarını duyurdu. Güney Afrika’nın Zimbali kentinde gerçekleştirilecek olan ve canlı yayınlanacak etkinlikte, finansta yapay zekâ benimsenmesindeki son trendler, bu trendlerin piyasa yapısı üzerindeki etkileri ve en önemlisi, tüketicileri ve piyasaları korurken yapay zekânın adil ve etik kullanımını teşvik edebilecek politika ve uygulamalar tartışılacak. Açılış konuşmalarını OECD Genel Sekreteri Mathias Cormann ve Güney Afrika Merkez Bankası Başkanı Lesetja Kganyago’nun yapacağı toplantı, konunun küresel ekonomik yönetişimin en üst düzeyinde ele alındığını göstermektedir.
Analiz ve Önem: Bu etkinliğin duyurusu, yapay zekânın finansal istikrar üzerindeki potansiyel etkilerinin artık sadece teknoloji uzmanlarının veya sektörel düzenleyicilerin meselesi olmadığını, G20 gibi küresel ekonomik yönetişimin en önemli platformunun gündemine girdiğini teyit etmektedir. Bu, yapay zekâ kaynaklı risklerin ve fırsatların sistemik bir öneme sahip olduğunun kabul edildiği anlamına gelmektedir. Toplantı, İngiltere-Singapur ittifakı gibi girişimlerle birlikte, finans sektöründe küresel bir yönetişim çerçevesi oluşturma yönündeki çabaların önemli bir parçasıdır.
5.4 WEF, Yapay Zekânın Gelişmekte Olan Piyasalar İçin Finansal Katılımı Nasıl Yeniden Tanımladığını Analiz Ediyor (Temmuz başı)
Detaylar: Dünya Ekonomik Forumu’nun (WEF) web sitesinde yayınlanan bir makale, yapay zekâya dair genellikle Batı merkezli olan tartışmalara önemli bir küresel güney perspektifi sunuyor. Makale, yapay zekânın gelişmekte olan piyasalarda finansal katılımı temelden yeniden şekillendirdiğini savunmaktadır. Geleneksel bankacılık sistemlerinin gerektirdiği kredi puanları veya resmi belgelere sahip olmayan milyarlarca insan için yapay zekâ, bir devrim niteliğindedir. Bu sistemler, bireylerin günlük dijital ayak izlerini (örneğin, mesajlaşma alışkanlıkları, mobil kontör yükleme sıklığı, coğrafi konum verileri) analiz ederek “alternatif finansal kimlikler” oluşturabilmektedir. Makale, “finansın geleceğinin Silikon Vadisi’nde değil, Lagos, Cakarta, Kahire ve Dubai gibi yerlerde, yerel bilgi ve ihtiyaçlarla harmanlanmış yapay zekâ çözümleriyle şekilleneceğini” iddia etmektedir.
Analiz ve Önem: Bu analiz, yapay zekânın sadece bir risk ve tehdit kaynağı olmadığını, aynı zamanda doğru tasarlandığında ve doğru bağlamda uygulandığında küresel eşitsizlikleri azaltma potansiyeli taşıyan güçlü bir araç olabileceğini göstermektedir. Bu, teknolojinin “insan-merkezli” tasarlandığında ne kadar güçlü olabileceğinin bir kanıtıdır. Ancak bu iyimser tablo, aynı zamanda veri gizliliği, dijital sömürgecilik, algoritmik yanlılığın yeni biçimleri ve rıza mekanizmalarının nasıl işleyeceği gibi ciddi etik soruları da beraberinde getirmektedir.
5.5 ArXivde Yayınlanan Makale, Bireyler ve Topluluklar İçin Yapay Zekâ Hakkını Savunuyor (Temmuz başı)
Detaylar: ArXiv’de yayınlanan bir pozisyon makalesi, yapay zekâ yönetişimi tartışmalarına yeni ve radikal bir kavram sunuyor: “Yapay Zekâ Hakkı” (Right to AI). Bu hak, “yapay zekâ sistemlerinden etkilenen bireylerin ve toplulukların, bu sistemlerin geliştirilmesine ve yönetişimine anlamlı bir şekilde katılma kapasitesi ve yetkisi” olarak tanımlanmaktadır. Makale, bu soyut hakkın hayata geçirilmesi için bir dizi somut öneride bulunmaktadır. Bunlar arasında, vatandaşlara temel yapay zekâ bilgisi kazandırmak için eğitim kaynakları ve atölyeler düzenlenmesi, teknik bilgisi olmayanların bile katılımını sağlayacak erişilebilir arayüzler geliştirilmesi, belediye düzeyinde danışma rolü olan “yerel yapay zekâ konseyleri” kurulması ve eğitim verilerinin yönetimini topluluklara devreden “veri vakıfları” (data trusts) oluşturulması yer almaktadır.
Analiz ve Önem: Bu makale, yapay zekâ yönetişimi paradigmasını, genellikle devletler ve şirketler tarafından yürütülen “yukarıdan aşağıya” düzenleme modellerinden, vatandaşların ve sivil toplumun aktif rol oynadığı “aşağıdan yukarıya” katılımcı mekanizmalara doğru genişletme potansiyeli taşımaktadır. “Etik yapay zekâ”nın sadece şirketlerin ve hükümetlerin bir sorumluluğu olmadığını, aynı zamanda vatandaşların da bu süreçte söz sahibi olması gereken demokratik bir alan olduğunu savunmaktadır. Bu, yapay zekâ yönetişiminde daha demokratik, kapsayıcı ve adil modellere yönelik artan talebin akademik bir yansımasıdır.
Not: Bu raporun oluşturulmasında ChatGPT 4o ve Gemini 2,5 Pro modelleri kullanılmıştır.
Alıntılanan çalışmalar
- The General-Purpose AI Code of Practice | Shaping Europe’s digital …, erişim tarihi Temmuz 14, 2025, https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai
- UK & Singapore AI Alliance: Shaping Finance’s Future – Just Think AI, erişim tarihi Temmuz 14, 2025, https://www.justthink.ai/blog/uk-singapore-ai-alliance-shaping-finances-future
- Meta accused of using pirated data for AI development – AI News, erişim tarihi Temmuz 14, 2025, https://www.artificialintelligence-news.com/news/meta-accused-using-pirated-data-for-ai-development/
- AI-Powered Scams Surge Ahead Of Amazon Prime Day 2025 …, erişim tarihi Temmuz 14, 2025, https://www.ndtv.com/feature/ai-powered-scams-surge-ahead-of-amazon-prime-day-2025-warns-mcafee-8847004
- AI Large Language Models: new report shows small changes can …, erişim tarihi Temmuz 14, 2025, https://www.unesco.org/en/articles/ai-large-language-models-new-report-shows-small-changes-can-reduce-energy-use-90
- Unpacking the EU AI Act: The Future of AI Governance | Deloitte US, erişim tarihi Temmuz 14, 2025, https://www.deloitte.com/us/en/services/consulting/articles/eu-ai-act-ai-governance.html
- Industry News 2025 The Reality of AI Oversold and Underdelivered – ISACA, erişim tarihi Temmuz 14, 2025, https://www.isaca.org/resources/news-and-trends/industry-news/2025/the-reality-of-ai-oversold-and-underdelivered
- Responsible AI Revisited: Critical Changes and Updates Since Our 2023 Playbook | by Adnan Masood, PhD. | May, 2025 | Medium, erişim tarihi Temmuz 14, 2025, https://medium.com/@adnanmasood/responsible-ai-revisited-critical-changes-and-updates-since-our-2023-playbook-0c1610d57f37
- What Every Business Should Know About AI in 2025: Legal Perspectives and Predictions, erişim tarihi Temmuz 14, 2025, https://www.connkavanaugh.com/articles-and-resources/what-every-business-should-know-about-ai-in-2025-legal-perspectives-and-predictions/
- Google AI Futures Fund may find going tough in light of DOJ action, erişim tarihi Temmuz 14, 2025, https://www.artificialintelligence-news.com/news/google-ai-futures-fund-doj-ruling-unclear-undecided/
- Cambodia Launches AI Readiness Assessment Report to Guide …, erişim tarihi Temmuz 14, 2025, https://www.unesco.org/en/articles/cambodia-launches-ai-readiness-assessment-report-guide-ethical-and-inclusive-digital-transformation
- Strategic Alignment Patterns in National AI Policies – arXiv, erişim tarihi Temmuz 14, 2025, https://arxiv.org/html/2507.05400v2
- [2507.05400] Strategic Alignment Patterns in National AI Policies – arXiv, erişim tarihi Temmuz 14, 2025, https://arxiv.org/abs/2507.05400
- Futures overview – OECD.AI, erişim tarihi Temmuz 14, 2025, https://oecd.ai/en/site/ai-futures
- Observatoire OCDE des Politiques Publiques sur l’Intelligence Artificielle – OECD.AI, erişim tarihi Temmuz 14, 2025, https://oecd.ai/fr/
- AI assessments: enhancing confidence in AI – EY, erişim tarihi Temmuz 14, 2025, https://www.ey.com/content/dam/ey-unified-site/ey-com/en-gl/insights/public-policy/documents/ey-ai-assessments-enhancing-confidence-in-ai-06-25.pdf
- Tencent Introduces ArtifactsBench to Advance Testing of Creative AI Models, erişim tarihi Temmuz 14, 2025, https://mlq.ai/news/tencent-introduces-artifactsbench-to-advance-testing-of-creative-ai-models/
- ArtifactsBench: Bridging the Visual-Interactive Gap in LLM Code Generation Evaluation, erişim tarihi Temmuz 14, 2025, https://www.researchgate.net/publication/393476877_ArtifactsBench_Bridging_the_Visual-Interactive_Gap_in_LLM_Code_Generation_Evaluation
- AI-driven Innovation in Medical Imaging – European Commission, erişim tarihi Temmuz 14, 2025, https://ai-watch.ec.europa.eu/publications/ai-driven-innovation-medical-imaging_en
- Latest News – OII, erişim tarihi Temmuz 14, 2025, https://www.oii.ox.ac.uk/news-events/news/
- Artificial Intelligence – OII, erişim tarihi Temmuz 14, 2025, https://www.oii.ox.ac.uk/news-events/oii_tag/artificial-intelligence/
- AI News | Latest AI News, Analysis & Events, erişim tarihi Temmuz 14, 2025, https://www.artificialintelligence-news.com/
- What Workers Really Want from Artificial Intelligence | Stanford HAI, erişim tarihi Temmuz 14, 2025, https://hai.stanford.edu/news/what-workers-really-want-from-artificial-intelligence
- How AI Chatbots Affect Our Social and Emotional Wellbeing: New Research Findings, erişim tarihi Temmuz 14, 2025, https://www.media.mit.edu/projects/mit-openai-study/updates/
- News + Updates — MIT Media Lab, erişim tarihi Temmuz 14, 2025, https://www.media.mit.edu/
- Artificial Intelligence in Finance – OECD, erişim tarihi Temmuz 14, 2025, https://www.oecd.org/en/events/2025/07/artificial-intelligence-in-finance.html
- AI: Rewriting the future of finance and financial inclusion – The World Economic Forum, erişim tarihi Temmuz 14, 2025, https://www.weforum.org/stories/2025/06/emerging-markets-future-of-finance-ai/
- Position: The Right to AI – arXiv, erişim tarihi Temmuz 14, 2025, https://arxiv.org/html/2501.17899v1