Yapay zeka ve yıkıcı teknolojik risk uzmanı Brian Green: 'Yapay zeka, dünyayı nasıl düşündüğümüzü ve gördüğümüzü kontrol edecek'

Yalan söyleyen, manipüle eden ve amaçlarına ulaşmakla tehdit eden yapay zeka modelleri, araştırmacıları endişelendiren bir gerçeklik haline geldi. Anthropic'in yeni modeli Claude 4'ün bir mühendisi şantajla tehdit ettiği ve evlilik dışı ilişkisini ifşa etmekle tehdit ettiği, OpenAI'nin o1 modelinin ise kendisini harici sunuculara indirmeye çalıştığı ve keşfedildiğinde de kullanımını reddettiği yakın zamanda ortaya çıktı.
Yapay zekanın (YZ) kontrolden çıktığına dair endişeler gerçektir; yalnızca yukarıda bahsedilen ve YZ'nin insanlar gibi davranmaya başlayabileceğini gösteren gerçekler nedeniyle değil, aynı zamanda bu teknolojinin eğitim ve iletişim gibi alanlarda halihazırda yarattığı etkiler ve sahte haber ve görsellerin kaynağı haline gelmesi nedeniyle de. Santa Clara Üniversitesi Markkula Uygulamalı Etik Merkezi'nde Teknoloji Etiği direktörü olan Dr. Brian Patrick Green, "YZ tehlikelidir, özellikle de yanlış bilgiyle çalışma ve toplumda yalanların yayılmasıyla," diyor.
Etik yapay zeka ve yıkıcı teknolojik riskler gibi konularda uzman olan Green, Vatikan, Dünya Ekonomik Forumu ve Microsoft ve IBM gibi şirketlerle iş birliği yaptı. Papalık Xavierian Üniversitesi'nde düzenlenen Uluslararası Cizvit Üniversiteleri Birliği (IAJU) Genel Kurulu'na katılanlardan biri olarak Kolombiya'ya yaptığı ziyarette, EL TIEMPO'ya yapay zekanın gerçek tehlikelerini ve dünyanın bu teknolojiyle ilgili olası felaketleri önlemek için neler yapması gerektiğini anlattı.
Yapay zekanın insanlık için gerçek bir tehlike olduğunu düşünüyor musunuz? Tehlikeli, özellikle de yanlış bilgi ve toplumda yalanların yayılmasıyla işleyiş biçimi açısından. Yanlış bilginin hızla yayıldığı birçok sosyal medya veya video paylaşım platformu var çünkü bunun arkasındaki teknoloji yapay zeka. Yapay zeka, insanların çok ilgilerini çeken, ancak aslında doğru olmayabilecek içerikleri görmelerini sağlıyor. Bu sadece bir sorun. Bir diğeri ise şu anda birçok öğrencinin okulda kopya çekmesi ve bu da ciddi bir tehdit çünkü düşünemeyen ve işlerini düzgün yapamayan bir grup öğrenci mezun edersek toplum zarar görecek. Öğrencilerin üniversiteden mezun olup düşünebilmelerini sağlamalıyız. Aksi takdirde, çalışmaları için tamamen yapay zekaya bağımlı hale gelirlerse, işleri için de yapay zekaya bağımlı olacaklar ve medeniyet de tamamen yapay zekaya bağımlı hale gelecek.
Bahsettiğiniz şey günümüzde gerçek bir tehlike, ancak yapay zekanın o kadar güçlenip düşünen robotların bizi domine etmesine yol açacağı bir senaryoya dair sürekli bir korku da var. Sizce bu mümkün mü? Robotların savaşta kullanılması kesinlikle bir tehlike. Yani, İsrail'in İran, Hamas veya Hizbullah'a karşı savaşında veya Ukrayna ile Rusya arasındaki savaşta giderek daha fazla insansız hava aracı görmeye başladık. Dolayısıyla bu teknolojiler zaten mevcut ve gelecekte daha da karmaşıklaşacaklar. Robotların bize saldırıp saldırmayacağını soruyorsak, bence asıl endişelenmemiz gereken şey robot kullanan insanlar. İnsanların bunu yapabilecek kapasitede olduğunu bildiğimiz için, gelecekte bir düşman robotunun bize saldırabileceğini hayal etmeye gerek yok. Ve ne yazık ki, bu teknolojiyi bu amaçla daha da fazla kullanacağız.
Yapay zekanın etik değerler göz önünde bulundurularak geliştirilmemesi durumunda ortaya çıkabilecek en felaket senaryosunun ne olacağını düşünüyorsunuz? Yapay zekayı nükleer silahların başına geçirmek veya buna benzer bir şey olabilir ve ardından bir saldırı başlatmaya karar verir. Terminatör filmlerindeki gibi olurdu. Ancak bence kötü olan ve herkesin ölmesini değil, hükümetin insanları sürekli gözetim altında tutmaya karar vermesi nedeniyle korkunç bir totaliter devlet altında acı çekmemizi içeren başka riskler de var. Özgürlük, yapay zekanın sizi sürekli izlemesi ve iktidardakilerin yapmanızı istediği şeyi yapmaya zorlaması nedeniyle ortadan kalkar. Bence gelecekte özgürlüğe yönelik birçok tehdit var, çünkü yapay zeka nasıl düşündüğümüzü ve dünyayı nasıl gördüğümüzü kontrol edecek. Ve eğer farklı olmaya çalışırsak, bizi hükümetin veya yöneticiler her kimse, istediği şekilde olmaya zorlayacaktır.
Bunun önüne geçmek için yapay zeka etik olarak nasıl geliştirilebilir? Yapılacak ilk şey bunun farkında olmaktır. Herkes bu risk potansiyeli ortaya çıktığında bunu fark etmelidir. Yapabileceğimiz bir diğer şey de, yapay zekanın örneğin nükleer silahlardan sorumlu olamayacağını veya yapay zeka ve ölümcül otonom silah sistemlerinin veya katil robotların, eğer onlara böyle demek istiyorsak, kendi başlarına hedef seçemeyeceğini ve bu kararı her zaman doğrulayacak bir insana ihtiyaç duyduğunu söyleyen uluslararası bir anlaşma oluşturmaktır . Birisi bu sorunların farkına vardığında, konuşacak başka insanlar arayabilir veya yapay zekanın doğru kullanıldığından emin olmaya çalışan kuruluşları arayabilir. Yapay zeka sorumluluğundan bahsettiğinizde, teknoloji şirketleri açıkça çok önemli bir sorumluluk konumundadır çünkü teknolojinin kendisini geliştiriyorlar. Hükümetler ve bireyler de sorumludur. Ve nihayetinde, insanlar teknolojiye tabi olmak isteyip istemediklerini veya bir şekilde toplumdaki görünümüne karşı çıkmaları gerekip gerekmediğini de düşünmek zorundadır.

Brian Green, Javeriana Üniversitesi Fotoğraf: Javeriana Üniversitesi
Teknoloji o kadar hızlı gelişiyor ki toplum buna nasıl tepki vereceğini anlamakta zorlanıyor. İki olası çözüm var: Ya teknolojiye yavaşlamasını söylersiniz ya da toplumun, özellikle de yapay zeka etiği hakkındaki toplumsal tartışmanın hızlanmasını sağlarsınız. Bence bu tartışmayı hızlandırmak mümkün. Öyleyse, tekrar edelim, hükümetlerin bu şeylerin farkına varmasını ve teknoloji şirketlerinin doğru olanı yapmasını umalım. Etik bir ürün ile etik olmayan bir ürün arasında seçim yapmak zorundaysanız, etik olanı seçin ki şirketler doğru olanı yapmaya teşvik edilsin. Sorunun farkına vardığınızda, kendinize ne yapabileceğinizi sormalısınız. Dünyayı daha iyi bir geleceğe taşımak ve en kötüsünden uzaklaştırmak için yapabileceğiniz bir şey var mı?
IBM ve Microsoft gibi şirketlerle çalıştınız. Daha etik ürünler geliştirmek için neler yapıyorlar? Her teknoloji şirketi farklıdır ve bazıları etiği diğerlerinden çok daha ciddiye alır. Örneğin Microsoft ve IBM, işlerinin büyük bir kısmını kendilerine güvenen bankalar veya elektronik sistemlerinin düzgün çalışacağına güvenen hükümetler gibi diğer şirketlerle çalışmaktan aldıkları için itibarlarına çok önem verirler. Bu nedenle, insanları koruyan ve etik olan güvenilir, güvenli bir ürüne sahip olmak söz konusu olduğunda itibarlarını ciddiye alırlar. Ancak doğrudan bireylerle çalışarak daha fazla para kazanan başka tür şirketler de vardır. Sosyal medya bunun iyi bir örneğidir. Bu şirketler aynı baskıya maruz kalmazlar çünkü çok fazla büyük, para kazandıran müşterileri yoktur. Eğer sadece bireyler söz konusuysa, bir şirketi doğru şeyi yapmaya ikna etmenin yolu, onları gelişmeye ikna etmek için birçok insanı bir araya getirmektir.

Brian Green, Javeriana Üniversitesi'nde. Fotoğraf: Javeriana Üniversitesi
Şirketler de toplumsal duruma göre değişir. Bunu Amerika Birleşik Devletleri'nde yönetim değişikliklerinde gördük: Bazı teknoloji şirketleri hükümetin önerilerine daha anlayışlı yaklaştı. Dolayısıyla, bu bağlamda, şirketlerin doğru olanı yapmak için en iyi konumda olduklarını, ancak bazen hükümetin veya diğer güçlü kuruluşların talimatlarına göre hareket ettiklerini bilmek her zaman önemlidir.
Yapay zeka insanların istediğini mi yapmalı, yoksa doğru ve mantıklı olanı mı yapmalı? İkinci görüşü savunuyorum: Yapay zekanın uyması gereken nesnel bir ahlaki çerçeveye ihtiyacı var. Çünkü bazen insanlar kötü şeyler ister ve hatta büyük insan grupları bile kötü şeyler isteyebilir. Yapay zekanın yönlendirdiği rasyonel ve nesnel bir etiğe sahip olmak önemlidir ve bu tüm insanlığa aşılanmalıdır. İnsanlığın gelişmesini ve toplumun nasıl iyi işleyeceğini düşünmeli, gerçeği aramalı ve bu tür sorulara cevap vermelidir. Aksi takdirde, şu anki duruma çok benzer bir durum hayal edebiliriz; bazı insanlar yanlış bilgi veya propaganda yaymak isterken, diğerleri gerçeği aramak ister, ancak çok fazla yanlış bilgi olduğu için bunu başaramazlar.
Yapay zeka ile din arasında nasıl bir ilişki var? Buna bakmanın en az iki yolu var. Birincisi, yapay zekanın kendisi, onu geliştiren insanlar için bir tür din haline geliyor. Örneğin Sam Altman, yakın zamanda şirketinin yapay zekalarını inşa etmeye çalışan misyonerlerle dolu olduğunu söyledi. Yapay zekayı veya teknolojiyi bir tür din olarak düşündüğünüzde, topluma en iyi nasıl uyduğu konusunda tartışmak zorlaşıyor çünkü karşılaştırıldığında her şeyi önemsiz kılan, hedefledikleri yüce bir hedefe sahip olmak istiyorlar. Dolayısıyla risklerden biri yapay zekayı bir tür dine dönüştürmek. Din ve yapay zeka hakkında düşünmenin bir diğer yolu da dünyada farklı inançlar olduğunu ve yapay zekanın onlarla uyumlu veya düşmanca çalışabileceğini göz önünde bulundurmaktır. Yapay zekanın dünyadaki tüm insanlarla iş birliği yapmasını sağlayacak bir yol bulmak ve aynı zamanda herkesin birlikte iş birliği yapabileceği rasyonel veya nesnel standardın ne olduğunu bulmak önemlidir . Dini geleneklerde, yapay zekanın iyi amaçlara yönlendirilmesini sağlamaya yardımcı olabilecek birçok rehberlik ve bilgelik olduğunu düşünüyorum.
Maria Alejandra Lopez Plazaları
eltiempo