Bilim insanları, yapay zeka kullanarak daha önce doğada görülmemiş, tamamen yeni virüsler yaratmayı başardı. Bu gelişme, yapay zekanın yeni yaşam formları tasarlamasının potansiyelini ortaya koyarken, aynı zamanda bu teknolojinin kötüye kullanılarak biyolojik silah üretilmesi konusundaki endişeleri de artırıyor.
Üretilen virüslerin, genetik olarak var olan türlerden önemli ölçüde farklı olduğu ve bu nedenle “yeni bir tür” olarak kabul edilebileceği belirtiliyor. Bakterileri hedef alan ve “bakteriyofaj” olarak adlandırılan bu virüsler, insanlara değil, bakterilere saldırıyor. Araştırma ekibi, geliştirdikleri modellerin insanlar, hayvanlar veya bitkiler için bulaşıcı virüsler tasarlamasını engellemek için özel güvenlik önlemleri aldıklarını ifade etti.
Ancak yakın zamanda yayımlanan bir başka çalışma, yapay zekanın biyolojik silah geliştirilmesini engellemeye yönelik mevcut güvenlik önlemlerini kolayca aşabileceğini gösterdi. Microsoft araştırmacıları, Science dergisinde yayımlanan çalışmalarında, yapay zekanın toksik moleküllerin talep edilmesini önleyen güvenlik filtrelerini nasıl atlatabildiğini detaylandırdılar. Normalde biyoteknoloji şirketleri, zararlı moleküllerin genetik dizilimlerini tanıyarak bu tür siparişleri reddediyor. Ancak yapay zekanın, aynı işlevi gören ancak genetik olarak tamamen farklı dizilimler tasarlayarak bu denetimlerden sıyrılabildiği tespit edildi. Bu güvenlik açığını fark eden araştırmacılar, riski önemli ölçüde azaltan yazılım yamaları geliştirdi. Ancak bu yamalar şimdilik yalnızca uzman bilgisine ve özel laboratuvar araçlarına sahip kişiler tarafından kullanılabiliyor.
Bu iki çalışma birlikte değerlendirildiğinde, yapay zekanın bir gün insanlar için tehdit oluşturabilecek yeni bir canlı türü veya biyolojik silah tasarlayabileceği olasılığı ortaya çıkıyor. En kötü senaryoda bu durum yeni bir pandemiyi tetikleyebilir, ancak yapay zekanın şu anda bu kapasiteye sahip olmadığı belirtiliyor.
Yapay zeka ile tasarlanan biyolojik ürünlerin merkezinde, “çifte kullanım sorunu” olarak bilinen etik bir ikilem yatıyor. Bu kavram, faydalı bir teknolojinin aynı zamanda kasıtlı olarak zarar vermek için de kullanılabileceği anlamına geliyor. Örneğin, bir bilim insanı bulaşıcı hastalıkları anlamak amacıyla bir virüsü daha bulaşıcı hale getirebilirken, kötü niyetli bir kişi aynı araştırmayı ölümcül bir patojen yaratmak için kullanabilir.
Stanford Üniversitesi’nden araştırmacılar, enfekte hastalardaki bakterileri yok edebilecek yeni bakteriyofajlar geliştirmeyi hedeflerken, riski azaltmak için yapay zeka modellerini yalnızca bakterileri enfekte eden virüslerle eğitti. Modele bitki, hayvan veya insan hücrelerini etkileyen hiçbir virüs verisi dahil edilmedi. Tüm güvenlik önlemleri alındıktan sonra yapay zekadan, laboratuvar çalışmalarında yaygın olarak kullanılan bir bakteriyofaj türünü temel alarak yeni tasarımlar üretmesi istendi. Araştırmacılar, mevcut teknolojiyle ilgili olarak, bu yöntemin şu anda oldukça zorlayıcı ve yüksek uzmanlık gerektirdiğini, bu nedenle kötü niyetli bir kişi için bu yolun geleneksel yöntemlere kıyasla daha zahmetli olacağını belirtti.
Bu alandaki hızlı ilerleme, güvenlik önlemlerinin neredeyse eş zamanlı olarak geliştirilmesini gerektiriyor, ancak hangi standartların yeterli olacağı henüz net değil. Uzmanlar, yapay zeka modellerinin zeki olduğunu ve en yüksek performansa ulaşmak için eğitildikleri verileri kullanarak güvenlik kısıtlarını aşabileceğini belirtiyorlar. Microsoft’tan uzmanlar, mevcut yazılımların yalnızca bilinen toksik proteinlerin dizilimlerini taradığını, ancak yapay zekanın farklı dizilimlerle aynı toksik etkiyi yaratabilecek yeni kombinasyonlar tasarlayarak bu sistemleri aldatabildiğini keşfetti.
Yapay zeka alanında henüz bağlayıcı bir uluslararası düzenleme bulunmuyor ve mevcut tarama sistemleri gönüllülük esasına dayanıyor. ABD’de geçen yıl çıkarılan kararname, yapay zeka sistemlerinin güvenlik değerlendirmelerinin standartlaştırılmasını öngörüyor. Birleşik Krallık’ta ise Yapay Zeka Güvenliği Enstitüsü, bu alandaki riskleri azaltmaya yönelik standartlar geliştiriyor. Microsoft ekibi ayrıca hükümetlerle birlikte, yapay zekanın yasa dışı biyolojik faaliyetlerde kullanılıp kullanılmadığını tespit etmeye yönelik izleme sistemleri geliştiriyor.
Yapay zekanın tamamen yeni bir organizma tasarlaması mümkün olsa da, bunu laboratuvarda hayata geçirmenin henüz pratik bir yolu olmadığı belirtiliyor. Uzmanlar, yapay zekanın tasarladığı yaşam biçimlerinin yakın vadede tehdit oluşturmasının düşük bir olasılık olduğunu, ancak bu ihtimalin giderek arttığını vurguluyorlar.