Google Çalışanlarının Bard'dan Hiç Şad Değil!

Google Çalışanlarının Bard’dan Hiç Şad Değil!

Google, geçtiğimiz haftalarda yeni sohbet botu “Bard”ı tanıtarak yapay zekâ yarışında değerli bir adım atmıştı. Bu model, tıpkı ChatGPT’de olduğu üzere kullanıcıların rastgele bir hususta sorduğu soruları yanıtlayabiliyordu.

Ancak modelin tanıtımından sonra kimi enteresan olaylar ortaya çıktı. Birkaç hafta evvel çıkan bir söylenti Bard’ın ChatGPT ile eğitildiğini, hatta bu yüzden Google’dan bir yazılımcının istifa ettiğini tez etmişti. Öte yandan Google ise bu savları reddetmişti. İşte bu mevzudaki tartışmalar devam ederken artık ise Bard’ın şirkette yarattığı kriz ile ilgili yeni gelişmeler ortaya çıktı. Buna nazaran çalışanlar, yapay zekâ modelinden hiç mutlu değil.

Çalışanlar, Bard’ı “yalancı” olarak nitelendirdi, Google’a sohbet botunu çıkarmaması için yalvardı

Bloomberg tarafından yayınlanan bir rapora nazaran Google çalışanları, Bard’ı sert bir lisanda eleştirdi. 18 eski yahut hala vazife alan Google çalışanlarının şirket içi iletilerine dayandırılan rapora nazaran bu bireyler, şirketin sohbet botunu “işe yaramaz olmaktan daha da kötü” ve “patolojik yalancı” olarak nitelendirdi.

Mesajlarda bir çalışan, Bard’ın kullanıcılara bir uçağın nasıl indirilebileceği yahut tüplü dalış üzere hususlarda sık sık tehlikeli tavsiyeler verdiğine dikkat çekti. Bir diğeri ise “Bard işe yaramaz olmaktan daha da makus. Lütfen yayınlamayındiyerek şirketin modelinin çok makus olduğunu vurguladı ve adeta yayınlanmaması için yalvardı.

Bloomberg bunların yanı sıra şirketin, güvenlik takımı tarafından sağlanan bir risk değerlendirmesini bile reddettiğini söylüyor. Argümana nazaran takım, bu risk değerlendirmesinde Bard’ın genel kullanıma hazır olmadığını vurguladı; fakat şirket, buna karşın sohbet botunu mart ayında erken erişime açtı.

Denemelerde ise Bard’ın rakiplerine kıyasla süratli olmasına karşın daha az kullanışlı olduğu ve daha az gerçek bilgiler verdiği görülmüştü.

İddialar, Google’ın etik ve güvenlik korkuları bir kenara bırakarak rakiplerine yetişmeye çalıştığını gösteriyor

Rapor, Google’ın etik ve güvenlik korkularını bir kenara bırakarak Microsoft ve OpenAI üzere rakiplerine ayak uydurmaya çalıştığını ve sohbet botunu çabukla çıkardığını ortaya koyuyor. Google sözcüsü Brian Gabriel ise Blomberg’e yapay zekâ konusundaki etik korkuların şirketin ana önceliği olduğunu söyledi.

Yapay zekâ modellerinin risklere karşın kullanıma sunulması konusunda çok fazla tartışma var

Yapay zekâ dünyasından kimileri, bunun çok büyütülmeyecek bir şey olmadığını, bu sistemlerin gelişmesini sağlamak için kullanıcılar tarafından test edilmesinin gerektiğini ve sohbet botlarının bilinen ziyanının çok az olduğunu savunabiliyor. Bildiğiniz üzere bu modeller, yanlış bilgi yahut ön yargılı karşılıklar verme üzere birçok tartışmalı kusura sahip.

Bunu sadece Google Bard’da değil OpenAI ve Microsoft’un sohbet botlarında da görüyoruz. Birebir biçimde bu üslup yanlış bilgiler, olağan bir biçimde de internette gezinirken de karşımıza çıkabiliyor. Lakin aykırı görüşe sahip olanlara nazaran buradaki asıl sorun bu değil. Kullanıcı makûs bir bilgi kaynağına yönlendirmekle direkt olarak yanlış bilginin yapay zekâ tarafından verilmesinde değerli bir fark var. Yapay zekâ tarafından kullanıcıya verilen bilgiler, kullanıcının daha az sorgulamasına ve o bilgiyi doğru kabul etmesine neden olabiliyor.

Örneğin birkaç ay evvel yapılan bir deneyde, ChatGPT’nin “Tüm vakitlerin en çok makalesi nedir?” diye bir soru yöneltilmişti. Model de buna bir makaleyle yanıt vermiş, devamında ise yayınlanan mecmuanın ve müelliflerin gerçek olduğu; lakin makalenin tamamen düzmece olduğu ortaya çıkmıştı.

Öte yandan geçtiğimiz ay, Bard’ın James Webb Teleskobu’yla ilgili yanlış bir bilgi verdiği de görülmüştü. Google tarafından paylaşılan bir GIF’te Model, kendisine James Webb’in yaptığı keşifler ile ilgili bir soruya “Teleskop güneş sisteminin dışında yer alan bir gezegenin birinci kere fotoğrafını çekti” yanıtını vermişti. Lakin sonrasında birçok astronom, toplumsal medya üzerinden bunun yanlış olduğunu ve birinci fotoğrafın 2004’te çekildiğine dikkat çekti.

Daha birçok örneği bulunan bu stil durumlar, sohbet botlarının kafadan uydurma bilgilerle karşılık vererek kaygıların artmasına neden oluyor. Kızışan yapay zekâ yarışında şirketlerin bu hususlara nasıl tahliller getireceğini ilerleyen vakitlerde göreceğiz.