Anthropic bünyesinde güvenlik araştırmalarına liderlik eden Mrinank Sharma’nın istifa açıklaması, yapay zekâ dünyasında geniş yankı uyandırdı. Sharma, yayımladığı açık mektupta yalnızca teknolojik risklere değil, aynı anda gelişen ve birbirini besleyen küresel sorunlara dikkat çekerek “dünyanın ciddi bir eşikte olduğunu” vurguladı.
Anthropic İçindeki Deneyimleri Ne Anlama Geliyor?
Anthropic’te geçirdiği süre boyunca değerler ile pratik kararlar arasında ciddi bir gerilim yaşandığını ifade eden Sharma, kurum içinde etik ilkeleri korumanın her zaman kolay olmadığını söyledi. Açıklamalarında doğrudan örnek vermese de, “önemli olanın sık sık ikinci plana itildiğini” hissettiğini dile getirdi.
Sharma’ya göre bu durum yalnızca Anthropic’e özgü değil; yapay zekâ alanında faaliyet gösteren pek çok büyük kuruluş benzer baskılarla karşı karşıya. Araştırmacı, teknolojinin etki gücü arttıkça, insanlığın bilgelik ve sorumluluk düzeyinin de aynı hızda gelişmesi gerektiğini savundu.
I joined because I thought OpenAI would be the best place in the world to do this research.
However, I have been disagreeing with OpenAI leadership about the company’s core priorities for quite some time, until we finally reached a breaking point.
— Jan Leike (@janleike) May 17, 2024
Yapay Zekâ Araştırmaları Ve Gelecek Endişesi
Anthropic’ten ayrıldıktan sonra akademik ve sanatsal bir yola yönelmeyi düşünen Sharma, cesur ve açık sözlü bir duruşla toplumsal tartışmalara katkı sunmak istediğini belirtti. Özellikle yapay zekânın insan algısını nasıl etkilediği üzerine yaptığı çalışmaların, bireylerin gerçeklik algısında bozulmalara yol açabileceğini ortaya koyduğunu söyledi.
Sharma’nın açıklamaları, yapay zekâ güvenliği konusundaki etik tartışmaları yeniden alevlendirdi. Son dönemde farklı teknoloji şirketlerinden benzer gerekçelerle ayrılan araştırmacıların artması, sektörün yalnızca teknik değil, aynı zamanda insani ve toplumsal sorumluluklar açısından da kritik bir döneme girdiğine işaret ediyor.
