OpenAI’nin yapay zekâ dünyasındaki yenilikçi atılımları, hem heyecan uyandırıyor hem de bazı belirsizlikleri beraberinde getiriyor. Son zamanlarda duyurulan Sora modeli ise bu belirsizliklerin odak noktasında. The Wall Street Journal’ın Mira Murati ile yaptığı röportaj, Sora’nın eğitim verilerinin kaynağı hakkında önemli soru işaretleriyle dolu. OpenAI’nin baş teknoloji sorumlusu Murati, Sora’nın veri kaynağına ilişkin sorulara net yanıtlar vermekten kaçındı ve muğlak ifadelerle konuyu geçiştirdi.
Mira Murati’nin Açıklamaları Kafa Karıştırıyor
Muğlaklık, özellikle Sora‘nın eğitim verilerinin nereden geldiği konusunda bir netlik sağlamak isteyenler için endişe verici. Murati’nin “kamuya açık verileri ve lisanslı verileri kullandık” ifadesi, aslında pek çok soruyu beraberinde getiriyor. Hangi kamuya açık veriler kullanıldı? Lisanslı veriler hangi kaynaklardan sağlandı ve ne tür verileri kapsıyor?
Murati, şirketin metin talimatlarından video üretebilen Sora modelinin veri kaynağı sorulduğunda muğlak yanıtlar verdi. Murati, 80 milyar dolar değerindeki şirketin yeni modelini nasıl geliştirdiğine ilişkin soruya “Kamuya açık verileri ve lisanslı verileri kullandık” yanıtını verdi.
Journal’dan Joanna Stern, Sora’nın YouTube, Instagram ya da Facebook gibi sosyal medya platformlarından alınan verilerle eğitilip eğitilmediğini sordu. Murati, “Aslında bundan emin değilim,” diye yanıtladı ve ekledi:
“Bilirsiniz, eğer kamuya açık olsalardı – kamunun kullanımına açık olsalardı. Ama emin değilim. Bu konuda kendimden emin değilim.”
Sora’nın sosyal medya platformlarından alınan verilerle eğitilip eğitilmediği sorusu ise tamamen cevapsız kaldı. Murati’nin “emin değilim” şeklindeki yanıtı, açıkçası şeffaflıktan uzak bir duruşu yansıtıyor. Bu noktada, kullanılan verilerin kaynağının netleştirilmesi ve bu verilerin gizliliği, adil kullanımı ve toplumun güvenliği açısından son derece önemli.
Bir diğer dikkat çekici nokta ise OpenAI’nin Shutterstock ile ortaklığına dair bilgilendirme. Murati’nin verilerin kaynağına ilişkin açıklamaları, ne yazık ki tam olarak tatmin edici değil. Kamuya açık ya da lisanslı olmaları önemli olsa da, bu verilerin nasıl ve hangi amaçlarla kullanıldığı da netleştirilmeli.
Ciddi Endişelere Yol Açabilecek Durumlar Var
Yapay zeka modelleri, eğitim verileri üzerine inşa edilir ve bu verilerin doğruluğu, güvenilirliği ve kaynağı, modelin başarısını ve toplumsal etkisini belirleyen kritik faktörlerden biridir. Dolayısıyla, Sora gibi önemli bir yapay zeka modelinin eğitim verilerinin belirsizliği, hem endüstri içinde hem de toplumda ciddi endişelere yol açabilir.
OpenAI‘nin, Sora modeli gibi yeniliklerinde şeffaflık ve hesap verebilirlik ilkelerine daha fazla vurgu yapması, hem güveni artırabilir hem de endişeleri azaltabilir. Sonuç olarak, yapay zekâ dünyasında ilerlemek önemli olsa da, bu ilerlemenin toplumun çıkarları ve değerleriyle uyumlu olması gerekiyor.
OpenAI’nin kapısından içeri adım attığınızda, geleceğin kapısını aralamış gibi hissedersiniz. Ancak, son zamanlarda bu kapı, şirketin önünü tıkayan bir dizi hukuki sorunla dolu. Murati’nin, OpenAI’nin kilit projelerinden bazılarını yönetmesiyle ilgili güncel gelişmeler, şirketin adını hem yüceltti hem de sorgulattı.
Geçtiğimiz yılın Kasım ayında, OpenAI’nin yönetim kurulu başkanı Sam Altman’ın görevden alınmasıyla sarsılan şirket, geçici bir liderlik boşluğuna düştü. Bu kritik dönemde, Murati kaptanlık ipini eline alarak geçici CEO olarak atanmıştı. Ancak, yönetim değişikliği sadece şirket içinde değil, dış dünyada da dikkatleri üzerine çekti.
Ciddi Eleştiriler Geliyor
OpenAI’nin yapay zeka modelleri, eğitim verilerinin doğruluğu ve kullanımı konusunda ciddi eleştirilere maruz kaldı. Temmuz 2023’te Sarah Silverman, Richard Kadrey ve Christopher Golden gibi tanınmış yazarlar, ChatGPT’nin telif hakkı ihlaliyle suçlandığı bir dava açtı. İddialarına göre, yapay zekâ, telif hakkıyla korunan içeriğe dayalı özetler oluşturarak yazarların eserlerini kullanıyordu.
Bu dava, OpenAI’nin hukuki çalkantılarıyla sınırlı değildi. Aralık ayında, The New York Times, Microsoft ve OpenAI’ye karşı benzer bir dava açarak şirketleri gazetenin içeriğini yapay zekâ sohbet robotlarını eğitmek için izinsiz kullandıkları iddiasıyla suçladı. Ayrıca, Kaliforniya’da, OpenAI’nin ChatGPT‘yi eğitmek için internetten özel kullanıcı bilgilerini izinsiz topladığı iddiasıyla başka bir toplu dava açıldı.
Bu davalarda ortaya atılan iddialar, OpenAI’nin sadece teknolojik ilerlemeyi değil, aynı zamanda etik ve yasal sorumluluğu da göz önünde bulundurması gerektiğini gösteriyor. Yapay zekâ dünyasının ön saflarında yer alan bir dev olarak, OpenAI’nin bu zorlu sorunları nasıl çözeceği merakla bekleniyor. Ancak bir gerçek var ki, yapay zeka geleceği şekillendirirken, bu şekillendirme yolculuğunda hukukun rehberliği olmadan ilerlemek imkansız görünüyor.
Açıklamalar için bir yazar olarak benim söyleyeceğim şey bu tür olumsuz gelişmelerin yapay zekâ coin’lerini ciddi şekilde etkileme potansiyeli. OpenAI gibi dev bir şirkete yönelik olarak gelebilecek her türlü olumsuz yaklaşım başta WLD olmak üzere diğer yapay zekâ coin’lerini etkileyebilir.