Neden Yapay Zeka (AI) Etiği? Büyük Veri çağında toplum, veri analizleri ve uygulamalarıyla şekillenmektedir. Bu uygulamalar hali hazırda, üretim, perakende, finans, sağlık hizmetleri, insan kaynakları ve istihdam, müşteri hizmetleri, tarım ve eğitim alanlarını kapsayarak günlük hayatımızda yerini almıştır. Veri Bilimi ve Yapay Zeka dünyamızı şimdiden değiştirmiş olup, söz konusu yapay zeka uygulamaların kapsam, etki ve metodoloji açısından değerlendirilmesi kullanıcılar, müşteri ve şirketler açısından oldukça önemlidir.
Belirtilen ilgi alanları, etik yapay zeka olarak bilinen bir çalışma alanının gelişmesine ön ayak olmuştur. Etik yapay zeka uygulamalarında bulunması gereken özelliklerin bireysel ve toplumsal yönlerini içeren ana içerik aşağıda belirtilmiştir:
-Gizlilik ve Güvenlik: Yapay zeka sistemleri yaygınlaştıkça, önemli kişisel ve ticari bilgilerin gizliliğinin korunması ve güvenliğinin sağlanması daha da zorlayıcı hale gelmektedir. Bu ilke, kullanıcıları verilerinin nasıl ve neden kullanılacağı ve saklanacağı konusunda bilgilendirmekle ilgilidir. -Şeffaflık: Yapay Zeka (AI) sistemleri, işletmelere son derece yardımcı olacak kararlar alırken, AI sisteminin yargıda bulunmakta faydalandığı bileşenlerinin ve çıktılarının kullanım amacının tanımlanabilmesi bir zorunluluktur. -Teknik Sağlamlık ve Güvenlik: AI sistemlerinin tutarlı, güvenli ve öngörülen ve öngörülemeyen koşullar altında çalışması esastır. AI sistemi, konuşlanmadan önce test edilerek konuşlandıktan sonra sonra sürdürülebilirliğini sağlayacak şekilde tasarlanmalıdır. Bunlar, AI sistemlerinin çok değişken koşullar altında tutarlı ve güvenilir biçimde davranmasını sağlamak için önemlidir. -Çeşitlilik ve Tarafsızlık Yapay Zeka sistemi çok yönlülüğe, katılıma ve kapsayıcılığa öncelik vermeli, farklı görüşlerin dile getirilmesini teşvik etmeli, tüm bireylere eşit davranmalı ve sosyal eşitliği korumalıdır. Yapay Zeka sistemleri, örneğin, tıbbi bakım, kredi başvuruları ya da istihdam gibi konulara yardımcı olduğunda, aynı semptomları taşıyan, finansal koşulları veya mesleki becerileri benzer olan herkese aynı önerileri yapmalıdır. -Hesap Verebilirlik: AI sistemi tasarımcıları ve uygulayıcıları, sistemlerinin çalışmasından bilfiil sorumludur. Verilerin korunması, potansiyel risklerin tanımlanması ve azaltılması gibi normların geliştirilmesi, kuruluşların yerleşik sorumluluklarını oluşturur.
Neler gerçekleştirildi? 2019 yılında Avrupa Komisyonu, Yapay Zeka Üst Düzey Uzman Grubu (AI HLEG) tarafından hazırlanan Güvenilir Yapay Zeka için Etik Kılavuz İlkeleri’ni yayınladı ve aralarında Arjantin, Brezilya, Kolombiya, Kosta Rika, Peru ve Romanya’nın da bulunduğu OECD Yapay Zeka İlkelerini imzalayan OECD’nin 36 üye ülkesi Avrupa Komisyonu’ndan destek almaya başladı. Güvenilir bir yaklaşım, yapay zeka sistemlerini kullanan veya bunlarla etkileşim halinde bulunan her paydaşın tasarım, geliştirme ve kullanımlarının yasalara ve etik değerlere uygun, teknik açıdan sağlam ve tutarlı olduğuna güvenebileceklerine temel teşkil ederek “sorumlu rekabeti” sağlamanın anahtarıdır. ‘Henüz’ yasal olarak bağlayıcı nitelik kazanmasa da, diğer politika alanlarındaki mevcut OECD İlkelerinin, uluslararası standartların belirlenmesinde ve hükümetlerin ulusal mevzuat tasarlamasına yardımcı olmada oldukça etkili olduğunu kanıtlamıştır.
Peki ya şirketler? Yapay Zekada etik sadece akademik bir ilgi alanı unsuru değil, işletmeler için de bir gerekliliktir. Veri etiğini ve Yapay Zeka etiğini işlevsel hale getiremeyen şirketler, teknolojilerinde başarısız olmaya mahkûmdur. Bu sorunun üstesinden gelmek için şirketlerin etik standartlara, etik riskin tanımlanmasına ve organizasyon genelinde risk azaltıcı planlamalara ihtiyacı vardır.
Kurumlar içindeki örgütsel uygulamaların gelişmemiş olması tüketicilerin, müşterilerin ve çalışanların güvenini kaybetmesine neden olur. Capgemini Araştırma Enstitüsü’nün 2020’de gerçekleştirdiği AI yönetici görüşleri anketine göre, müşteriler AI sistemlerinin daha şeffaf ve açıklanabilir olmasını istemektedir (%71) ve %67’si Yapay Zeka geliştiren şirketlerin sistemlerinin yaratabileceği olumsuz etkilerin sorumluluğunu üstlenmesini beklemektedir. Buna ek olarak, %66’sı yapay zeka modellerinin adil ve tarafsız olmasını beklerken etik uygulamalardan endişe duymaktadır. Tüm paydaşlar güvenilir yapay zeka aramaktadır.
KoçDigital olarak bugüne kadar neler başardık? 2021 yılında KoçDigital, Avrupa Komisyonu’nun Güvenilir Yapay Zeka için Etik Kılavuz İlkelerini temel alan kendi ilkelerini oluşturmuştur. İlkelerimizin yapay zeka projelerine ne kadar iyi uygulanabileceğini değerlendirmek amacıyla, Yapay Zeka etki değerlendirme yaklaşımlarının kapsamlı bir analizinin ardından 2022’de İşletmeler için Yapay Zeka Etik Risk Değerlendirme Kılavuzu’nu hazırladık. Bu kılavuzun ana hedefi projenin risk ve etki profilini belirlemek ve riski azaltmaktır. Tamamlayıcı bir adım olarak, kurumsal iletişimi teşvik etmeyi ve projenin yaşam döngüsü boyunca riski izlemeyi amaçlayan Güvenilir Yapay Zeka Kurumsal Yönetim Sürecini geliştirdik. Bu yaklaşımımızla Yapay zeka tasarım ve geliştirme süreçlerine yönelik gereksinimlerin uygulanmasındaki ve kullanıcıların bu gereklilikler hakkında bilgilendirilmesi ve taleplerini almaya yönelik süreçler konumlandırılmıştır. KoçDigital de güvenilir yapay zeka uygulamaları konusunda attığımız bu adımların Türkiye için örnek teşkil etmesini dileriz.