İSTANBUL, (DHA)- YAPAY zekanın kullanımın artmasıyla eşitsizliklere yol açabileceği endişesinin de giderek arttığını belirten Hukuk Fakültesi öğretim üyesi Prof. Dr. Mehmet Rıfat Tınç, “Özellikle büyük şirketlerin yapay zeka sistemlerinde ayrımcılık yaptığı iddiaları, konunun önemini bir kez daha gözler önüne serdi. Hatta bir yazılım, hukuk mantığını tamamen benimsemiş olsa bile, ayrımcılık iddialarıyla yargıya taşınacak tartışmalar kaçınılmaz olacaktır. Çünkü ne yazılımlar ne de robotlar, toplumun ve hukukun gelişimini durdurabilir” dedi.Yeditepe Üniversitesi Hukuk Fakültesi öğretim üyesi Prof. Dr. Mehmet Rıfat Tınç, yapay zekanın ayrımcılıktaki rolünü değerlendirdi ve Türkiye ile dünyada bu konuda alınan önlemleri ele aldı. Yapay zeka algoritmalarının, cinsiyet, yaş, köken gibi kişisel özelliklere dayalı olarak ayrımcılık yapabileceğini belirten Prof. Dr. Tınç, “Teknolojik bir nesnenin ayrımcılık yapması, onu hukuki açıdan bir suç aletine dönüştürebilir. Bu nedenle yapay zekanın nasıl ve neden ayrımcılık yapabileceğini anlamak büyük önem taşıyor” dedi.‘NE YAZILIMLAR NE DE ROBOTLAR, TOPLUMUN VE HUKUKUN GELİŞİMİNİ DURDURABİLİR’Algoritmaların hukuk bilgisi ve toplumsal görgüsü olmadığı için ayrımcılık yapma ihtimali bulunduğunu vurgulayan Tınç, sözlerini şöyle sürdürdü:“Hatta bir yazılım, hukuk mantığını tamamen benimsemiş olsa bile, ayrımcılık iddialarıyla yargıya taşınacak tartışmalar kaçınılmaz olacaktır. Çünkü ne yazılımlar ne de robotlar, toplumun ve hukukun gelişimini durdurabilir”‘HUKUKÇULAR ÇÖZÜM ÜRETMELİ’Prof. Dr. Tınç, bu durumda özellikle hukukçuların, yapay zeka ayrımcılığının ortaya çıkaracağı yeni ve kritik sorulara yanıtlar üretmesi gerektiğinin altını çizdi. Prof. Dr. Tınç’, “Yapay zeka, iki farklı şekilde ayrımcılık yapabilir. Aritmetik ayrımcılık, aynı durumda olan kişilere farklı muamele yapılması. Örneğin, aynı iş için aynı performansı gösteren iki kişinin farklı ücret alması. Geometrik ayrımcılık ise farklı durumda olan kişilere aynı muamele yapılması. Örneğin, bir sınavda engelli bir kişiye diğerleriyle aynı sürenin verilmesi” dedi.‘YAPAY ZEKA HUKUK VE TOPLUM KARŞISINDA DEMODE KALABİLİR’“Algoritmalar, insanlar gibi ahlâk sahibi olamazlar” diyen Tınç, şöyle devam etti:“Kendilerine dayatılan ahlâk kurallarının dışına çıkamazlar ya da kendi kendilerine bu kuralları geliştiremezler. Dolayısıyla, yapay zekanın mutlaka dışarıdan müdahaleye, insan eliyle revize edilmeye ve güncellenmeye açık olması gerekir. Müdahale edemediğimiz, revize edemediğimiz ve sadece kendi kendini geliştiren bir yapay zeka, ileride istemediğimiz sonuçlar doğurabilir. Bir süre sonra bizi ilerletmek yerine geriletebilir ya da ahlâk anlayışımızın ve bilinç yapımızın gerisinde kalabilir. Bu nedenle, Avrupa ve Japonya’da olduğu gibi, yapay zekanın yol açabileceği hatalar ve suçlar için mevzuatımızda yeni düzenlemeler yapılması gerekecektir.”Yapay zekanın bir hukuk kişisi olmaması, sorumluluğun belirlenmesini zorlaştırıyor. Prof. Dr. Tınç, yapay zekayı geliştiren ve kullanan şirketler ile kişilerin, bu teknolojinin yol açtığı zararlar için sorumlu tutulabileceğini vurguladı. Ayrıca, yapay zekanın ayrımcılık yapmasını önlemek amacıyla şu tedbirlerin alınabileceğini belirtti:“Algoritmik Önlemler: Algoritmaların düzenli olarak denetlenmesi ve önyargıların giderilmesi. Yazılımlarda sistematikleşme eğilimlerine karşı güncellemeler ve düzeltici formüllerin zorunlu kılınması.“Kurumsal Önlemler: Yapay zekayı kullanan kurumların belirli aralıklarla denetlenmesi.“İnsani Önlemler: Yapay zeka sistemlerinin insan denetimi altında tutulması. Örneğin, bir yapay zeka şikâyet birimi ya da “Yapay Zeka Adliyesi” oluşturulabilir.”Tınç, hâlihazırda bilişim suçlarıyla ilgilenen özel yetkili kurumlarımızın mevcut olduğunu hatırlatarak, yapay zeka mağdurlarının da destek alabileceği adli kurumların kurulabileceğini ifade etti.‘YAPAY ZEKANIN İNSANLIĞA HİZMET ETMESİ İÇİN ETİK VE ADİL BİR ŞEKİLDE GELİŞTİRİLMESİ VE KULLANILMASI BÜYÜK ÖNEM TAŞIYOR’Prof. Dr. Mehmet Rıfat Tınç, şu değerlendirmelerde bulundu:“Yapay zekanın sunduğu fırsatların yanı sıra, ayrımcılık gibi ciddi riskleri de bulunuyor. Bu riski minimize etmek için hukuki, teknik ve toplumsal düzeyde önlemler alınması gerekiyor. Yapay zekanın insanlığa hizmet etmesi için etik ve adil bir şekilde geliştirilmesi ve kullanılması büyük önem taşıyor.”
Sizlere daha iyi hizmet sunabilmek adına sitemizde çerez konumlandırmaktayız. Kişisel verileriniz, KVKK ve GDPR
kapsamında toplanıp işlenir. Sitemizi kullanarak, çerezleri kullanmamızı kabul etmiş olacaksınız.
En son gelişmelerden anında haberdar olmak için 'İZİN VER' butonuna tıklayınız.
'Yapay zekada ayrımcılık tehlikesi'
'Yapay zekada ayrımcılık tehlikesi'
İSTANBUL, (DHA)- YAPAY zekanın kullanımın artmasıyla eşitsizliklere yol açabileceği endişesinin de giderek arttığını belirten Hukuk Fakültesi öğretim üyesi Prof. Dr. Mehmet Rıfat Tınç, “Özellikle büyük şirketlerin yapay zeka sistemlerinde ayrımcılık yaptığı iddiaları, konunun önemini bir kez daha gözler önüne serdi. Hatta bir yazılım, hukuk mantığını tamamen benimsemiş olsa bile, ayrımcılık iddialarıyla yargıya taşınacak tartışmalar kaçınılmaz olacaktır. Çünkü ne yazılımlar ne de robotlar, toplumun ve hukukun gelişimini durdurabilir” dedi.Yeditepe Üniversitesi Hukuk Fakültesi öğretim üyesi Prof. Dr. Mehmet Rıfat Tınç, yapay zekanın ayrımcılıktaki rolünü değerlendirdi ve Türkiye ile dünyada bu konuda alınan önlemleri ele aldı. Yapay zeka algoritmalarının, cinsiyet, yaş, köken gibi kişisel özelliklere dayalı olarak ayrımcılık yapabileceğini belirten Prof. Dr. Tınç, “Teknolojik bir nesnenin ayrımcılık yapması, onu hukuki açıdan bir suç aletine dönüştürebilir. Bu nedenle yapay zekanın nasıl ve neden ayrımcılık yapabileceğini anlamak büyük önem taşıyor” dedi.‘NE YAZILIMLAR NE DE ROBOTLAR, TOPLUMUN VE HUKUKUN GELİŞİMİNİ DURDURABİLİR’Algoritmaların hukuk bilgisi ve toplumsal görgüsü olmadığı için ayrımcılık yapma ihtimali bulunduğunu vurgulayan Tınç, sözlerini şöyle sürdürdü:“Hatta bir yazılım, hukuk mantığını tamamen benimsemiş olsa bile, ayrımcılık iddialarıyla yargıya taşınacak tartışmalar kaçınılmaz olacaktır. Çünkü ne yazılımlar ne de robotlar, toplumun ve hukukun gelişimini durdurabilir”‘HUKUKÇULAR ÇÖZÜM ÜRETMELİ’Prof. Dr. Tınç, bu durumda özellikle hukukçuların, yapay zeka ayrımcılığının ortaya çıkaracağı yeni ve kritik sorulara yanıtlar üretmesi gerektiğinin altını çizdi. Prof. Dr. Tınç’, “Yapay zeka, iki farklı şekilde ayrımcılık yapabilir. Aritmetik ayrımcılık, aynı durumda olan kişilere farklı muamele yapılması. Örneğin, aynı iş için aynı performansı gösteren iki kişinin farklı ücret alması. Geometrik ayrımcılık ise farklı durumda olan kişilere aynı muamele yapılması. Örneğin, bir sınavda engelli bir kişiye diğerleriyle aynı sürenin verilmesi” dedi.‘YAPAY ZEKA HUKUK VE TOPLUM KARŞISINDA DEMODE KALABİLİR’“Algoritmalar, insanlar gibi ahlâk sahibi olamazlar” diyen Tınç, şöyle devam etti:“Kendilerine dayatılan ahlâk kurallarının dışına çıkamazlar ya da kendi kendilerine bu kuralları geliştiremezler. Dolayısıyla, yapay zekanın mutlaka dışarıdan müdahaleye, insan eliyle revize edilmeye ve güncellenmeye açık olması gerekir. Müdahale edemediğimiz, revize edemediğimiz ve sadece kendi kendini geliştiren bir yapay zeka, ileride istemediğimiz sonuçlar doğurabilir. Bir süre sonra bizi ilerletmek yerine geriletebilir ya da ahlâk anlayışımızın ve bilinç yapımızın gerisinde kalabilir. Bu nedenle, Avrupa ve Japonya’da olduğu gibi, yapay zekanın yol açabileceği hatalar ve suçlar için mevzuatımızda yeni düzenlemeler yapılması gerekecektir.”Yapay zekanın bir hukuk kişisi olmaması, sorumluluğun belirlenmesini zorlaştırıyor. Prof. Dr. Tınç, yapay zekayı geliştiren ve kullanan şirketler ile kişilerin, bu teknolojinin yol açtığı zararlar için sorumlu tutulabileceğini vurguladı. Ayrıca, yapay zekanın ayrımcılık yapmasını önlemek amacıyla şu tedbirlerin alınabileceğini belirtti:“Algoritmik Önlemler: Algoritmaların düzenli olarak denetlenmesi ve önyargıların giderilmesi. Yazılımlarda sistematikleşme eğilimlerine karşı güncellemeler ve düzeltici formüllerin zorunlu kılınması.“Kurumsal Önlemler: Yapay zekayı kullanan kurumların belirli aralıklarla denetlenmesi.“İnsani Önlemler: Yapay zeka sistemlerinin insan denetimi altında tutulması. Örneğin, bir yapay zeka şikâyet birimi ya da “Yapay Zeka Adliyesi” oluşturulabilir.”Tınç, hâlihazırda bilişim suçlarıyla ilgilenen özel yetkili kurumlarımızın mevcut olduğunu hatırlatarak, yapay zeka mağdurlarının da destek alabileceği adli kurumların kurulabileceğini ifade etti.‘YAPAY ZEKANIN İNSANLIĞA HİZMET ETMESİ İÇİN ETİK VE ADİL BİR ŞEKİLDE GELİŞTİRİLMESİ VE KULLANILMASI BÜYÜK ÖNEM TAŞIYOR’Prof. Dr. Mehmet Rıfat Tınç, şu değerlendirmelerde bulundu:“Yapay zekanın sunduğu fırsatların yanı sıra, ayrımcılık gibi ciddi riskleri de bulunuyor. Bu riski minimize etmek için hukuki, teknik ve toplumsal düzeyde önlemler alınması gerekiyor. Yapay zekanın insanlığa hizmet etmesi için etik ve adil bir şekilde geliştirilmesi ve kullanılması büyük önem taşıyor.”
En Çok Okunan Haberler