Google çalışanlarına kendi yapay zekası Bard’ı kullanmayı yasakladı!

Google çalışanlarına kendi yapay zekası Bard’ı kullanmayı yasakladı!

Teknoloji devi Google, çalışanlarına yönelik yeni bir siyaset benimsemiş durumda. Şirketin ortaya koyduğu siyaset gereği, çalışanların yapay zeka tabanlı sohbet botlarını kullanmaları yasaklanmış durumda. Bu kararın ardında, saklılık telaşları ve bilgi güvenliği bahislerinin tesirli olduğu belirtiliyor.

Google, ChatGPT ve kendi modeli Bard üzere sohbet botlarını geliştirmiş olsa da, bu araçları kendi çalışanları için kullanmayı tavsiye etmiyor. Şirket, yapay zeka tabanlı sohbet botlarının kullanımında potansiyel güvenlik riskleri bulunduğunu vurguluyor ve bu nedenle çalışanlarının bu araçları kullanmaktan kaçınmasını istiyor.

Google çalışanlarına kendi yapay zekası Bard’ı kullanmayı yasakladı!

Gizlilik kaygıları, bilhassa yapay zeka tabanlı sistemlerin kullanıcıların şahsî bilgilerine erişebilme yeteneğiyle ilgili olarak ortaya çıkıyor. Çalışanlarının ferdî yahut hassas bilgilerini müdafaa sorumluluğunu taşıyan Google, bu cins yapay zeka araçlarının güvenliğini sağlamak ve bilgi güvenliğini korumak için tedbirler almayı tercih ediyor.

Google’ın bu siyaseti, şirketin bilgi saklılığı ve güvenliği mevzularında hassaslığını yansıtıyor. Data güvenliği, günümüzde giderek artan bir değere sahip olan bir bahistir ve şirketler, çalışanlarının bilgilerini ve datalarını korumak için gereken adımları atıyor.

Google’ın yapay zeka tabanlı sohbet botlarını kullanmama siyaseti, şirket içinde bilgi güvenliği ve saklılık mevzularında bir dönüşümün bir kesimi olarak görülebilir. Bu siyasetin, çalışanların bilgilerini daha yeterli muhafaza hedefini taşıdığı ve şirketin data güvenliği alanında liderliğini sürdürmeyi hedeflediği söylenebilir.