E-Bülten listemize abone olun.

ABONE OL
Yapay zekalar birbirlerini sırtlarından bıçaklar mı?

Yapay zekalar birbirlerini sırtlarından bıçaklar mı?

Gelecekte, insan toplumuna ait bileşenlerin bir kısmının — ya da tümünün — yapay zeka tarafından kontrol edileceği öngörülüyor. Bugüne kadar okuduğumuz çalışmaların çoğu, tekil yapay zeka uygulamalarının kendilerine verilen görevleri tek başlarına nasıl yürüttüğüne yönelik araştırmalardan ibaret. Peki, gelecekte bir ya da daha fazla yapay zeka birbiriyle karşı karşıya geldiğinde nasıl davranacak, ikilemleri ve çatışmaları nasıl çözecekler?

Google’ın “Zekayı çöz ve onu dünyayı daha iyi bir yer haline getirmek için kullan” sloganına sahip yapay zeka motoru DeepMind ile yürütülen Multi-agent Reinforcement Learning in Sequential Social Dilemmas adlı çalışmayla araştırmacılar, yapay zeka ajanlarının bir dizi ardışık sosyal ikilemle karşılaştıklarında birbirleriyle nasıl etkileştiklerini test ettiler.

SHERPA Blog her hafta e-postanızda. Ücretsiz abone olmak için tıklayın.

Öncelikle araştırmanın özetine göz gezdirelim.

Tutsak İkilemi gibi matris oyunları, sosyal ikilemlerin çözümüne yönelik araştırmalara yıllardır rehberlik ediyor. Ancak işbirliği ya da mücadele seçimlerini birer atomik aksiyon olarak ele alıyorlar. Gerçek hayattaki sosyal ikilemlerde bu seçimler çok daha geniş kapsamlı olarak gerçekleşiyor. İşbirlikçilik, aksiyon elementleriyle değil ilkelerle ilişkileniyor. Bu araştırmada, yapay zeka ajanlarını matris oyunlarındaki ikilemlerden beslenen ardışık sosyal ikilemlere maruz bırakmakla kalmadık, aynı zamanda ajanların stratejik hedeflerine yönelik ilkeleri öğrenmelerini de şart koştuk. Meyve Toplama ve Kurt Sürüsü oyunları sayesinde, her biri kendi Qnetwork adlı derin öğrenme ağına sahip olan çok sayıda bağımsız öğrenen ajanı ve onlar tarafından öğrenilen ilkelerin dinamiklerini analiz ettik. Kaynakların bolluğu gibi çevresel faktörlere bağlı olarak öğrenilen davranışların nasıl değiştiğini gözlemledik.

İşbirliğini mi, yoksa savaşmayı mı seçecekler?

Bu soruyu belki de “bencil mi davranacaklar?” şeklinde sorabiliriz, zira konunun kökeni Tutsak İkilemi adlı paradoksa dayanıyor. Tutsak İkilemi oyununun ne olduğunu Wikipedia’daki açıklamadan öğrenelim:

İki zanlı bir soruşturma kapsamında polis tarafından gözaltına alınmıştır. Polis elinde tutuklama için yeterli kanıt olmadığı için her iki zanlıyı ayrı ayrı hücrelere koyup bir anlaşma sunmaktadır. Anlaşmaya göre zanlılardan biri diğerinin aleyhinde tanıklık eder diğeri ise suskun kalırsa, tanıklık eden serbest kalacak susmayı tercih eden taraf ise 10 yıl hapse mahkûm edilecektir. Eğer ikisi de birbirleri aleyhinde tanıklık etmez suskun kalırlarsa her ikisi de 1 yıl hapis cezasına, eğer her ikisi de birbirleri aleyhinde tanıklık ederse her iki zanlı da 5’er yıl hapis cezasına çarptırılacaktır.

Bu çerçevede her iki zanlı tanıklık etmek veya suskun kalmak arasında tercih yapmak zorundadır. Her iki zanlıya da soruşturma sonuna kadar diğerinin kararını öğrenme imkânı tanınmamaktadır, yani farklı odalarda bulunan iki zanlının birbirleri ile iletişim kurma imkânı yoktur. Buna göre karşı tarafın kararından habersiz olan oyuncu 10 yıl hapis yatma ihtimalini göze alamayarak sessiz kalmayacak, karşı taraf aleyhinde tanıklık edecektir. Karşı taraf aleyhine tanıklık ederek 5 yıl gibi daha kısa süreli bir hapis cezasına razı olacak ya da serbest kalacaktır. Oyuncu burada kaybını en aza indirmeyi (kazancını maksimize etmeyi) hedef alacaktır. Karşı tarafın da aynı koşullar altında rasyonel davranarak tanıklık edeceği kaçınılmaz olacaktır. Böylece birbirleri ile iletişim kurmayan iki tarafın, iyi niyetli değil de rasyonel davranarak aldıkları karar aslında belki de daha az yatacakları hapis cezasının artmasına neden olmaktadır.

Bir başka deyişle; bireyler bencillikten bireysel faydalar sağlayabilirler, fakat herkes bencil davranırsa herkes kaybeder. DeepMind ile yapılan çalışma süresince yapay zeka ajanları farklı farklı oyunlarda karşı karşıya getirildiler.

Oyun 1: Elma toplama

“Elma toplama” adlı ilk oyunda amaç, ortadaki bir yığındaki elmaları toplamaktı ve her oyuncunun, diğer oyuncuyu “sobeleyerek” geçici bir süre için etkisiz hale getirme ve böylece daha fazla elma toplama imkanı bulunuyordu.

Bu oyun süresince ajanlar, yeterli miktarda elma olduğu sürece birbirlerini sobeleme ihtiyacı duymadılar. Ancak stok azalmaya başladığında, birbirlerini daha fazla sobelemeye başladılar. Bilgi işleme gücü daha yüksek olan bir ajan oyuna dahil olduğunda ise, stokta kaç elma kaldığına bakmaksızın diğer rakibini sobelemeye başladı. Özetle, daha “akıllı” olan yapay zeka ajanı, her türlü durumda daha agresif olmayı seçti.

Araştırmacılar, daha gelişmiş yapay zekanın sobelemeyi tercih etmesinin nedeninin, bunun daha çok işlem gücüyle yapılması olabileceğini savunuyor; zira sobelemek için ajanın silahını doğrultması ve rakibini takip ederek ona ateş etmesi, yani daha çok işlem yapması gerekiyor. Bu gibi durumlar haricinde ajanlar işbirliği yapmaya daha yatkınlar.

Oyun 2: Kurt sürüsü

“Kurt sürüsü” adlı ikinci oyunda ise amaç, engellerle dolu bir ortamda üçüncü bir karakter olan “avı” ele geçirmekti. Ancak bir oyuncu avı ele geçirdiğinde, sadece avı ele geçiren değil, o sırada ava yakın olan diğer oyuncu da puan alacaktı.

“Elma toplama” oyununda olanların aksine, “Kurt sürüsü” oyununda ajanlar ne kadar “akıllıysa” işbirliğine o kadar daha yatkın davrandılar. Araştırmacılar, bunu, diğer oyuncuyla beraber çalışmayı ve avı yakalamayı öğrenmenin daha fazla işlem gücü gerektirdiği için cazip geldiği şeklinde açıklıyorlar.

Gelecekte bizi neler bekliyor?

Araştırmada özetle, yapay zeka ajanlarının davranışlarının, karşı karşıya kaldıkları kurallara göre değiştiği gözlemlendi: Eğer kurallar agresif davranışı ödüllendiriyorsa daha agresif, işbirliğini ödüllendiriyorsa daha işbirlikçi davranıyorlardı.

Google Deepmind araştırmayla ilgili olarak yayınladığı makalede; bu araştırma sayesinde, çok özneli modern yapay zekanın öğrenme tekniklerini, işbirliğinin önemi gibi asırlar kadar eski sosyal bilimler problemlerine uygulayabileceğimizi ve eğitilen yapay zeka ajanlarını, ekonomi biliminin rasyonel ajan modeli olan homo economicus yaklaşımının bir türevi olarak kabul edebileceğimizi savunuyor.

Sonuç olarak çok özneli modern yapay zekanın gelecekte ekonomi, trafik ağları ya da sürdürülebilirlik ve ekoloji gibi, varlığı kesintisiz işbirliğimize bağlı sistemleri anlamamızı ve daha iyi kontrol etmemizi mümkün kılacağını umuyoruz. Ancak bu araştırmanın bize öğrettiği önemli bir şey var: Davranışsal gelişimi, koyulan kurallar belirliyor.