Soruşturmanın Temel Dayanakları: Yaş Sınırı ve Risk Analizi
Meta çocuk soruşturması Neler Sunuyor?
Avrupa Komisyonu’nun yaptığı ön incelemeler, Facebook ve Instagram’ın reşit olmayan kullanıcıları platformlardan uzak tutma konusunda yetersiz kaldığını gösteriyor. Meta’nın kullanım şartlarına göre platformlara erişim için en az 13 yaşında olma zorunluluğu bulunsa da, AB’nin araştırması yaş bilgisini manipüle etmenin ve 13 yaş altındaki kullanıcıları bildirme süreçlerinin karmaşık olduğunu ortaya koyuyor. Bu durum, Meta’nın çocukların platformları kullanmasıyla ilgili tehlikeleri değerlendirirken eksik ve keyfi bir risk analizi yaptığı şüphesini doğuruyor.
Komisyon verilerine göre, AB genelinde 13 yaş altındaki çocukların yaklaşık %10 ila %12’si Facebook veya Instagram’a erişim sağlıyor. Bu erişimin potansiyel zararları göz önüne alındığında, Meta’nın yeterli önlemleri almadığı ve bilimsel kanıtları göz ardı ettiği iddiaları soruşturmanın merkezinde yer alıyor. Avrupa Komisyonu, Meta’dan reşit olmayanları tespit etme ve platformdan uzaklaştırma araçlarını güçlendirmesini talep ediyor.
Mali Riskler ve Meta’nın Savunması
Eğer Meta gerekli düzenlemeleri yapmazsa, dünya genelindeki yıllık gelirinin %6’sına kadar ulaşabilen bir para cezasıyla karşı karşıya kalabilir. Bu, milyarlarca dolarlık bir ceza anlamına gelebilir. Şirket, şu an için soruşturma belgelerini inceleme, bulgulara yanıt verme ve tespit edilen sorunları gidermek için önlemler alma sürecinde bulunuyor.
Meta ise Facebook ve Instagram’ın 13 yaş ve üzeri kişiler için tasarlandığını vurgulayarak savunma yapıyor. Şirket, 13 yaş altındaki kullanıcıları tespit edip kaldırmak için çeşitli önlemlerin devrede olduğunu ve bu konuda teknolojiye yatırım yapmaya devam ettiklerini belirtiyor. Meta, önümüzdeki haftalarda yeni ek önlemler hakkında daha fazla bilgi paylaşacağını duyurdu.
Yaş Doğrulama Teknolojileri ve Gelecek Beklentileri
Avrupa Komisyonu, Meta’ya yönelik soruşturmayı ilk olarak 2024 yılında, özellikle çocukların sosyal medya bağımlılığına odaklanarak başlatmıştı. 2026 yılına gelindiğinde ise düzenleyiciler ve sosyal medya platformları, yaş doğrulama teknolojilerini bir çözüm olarak değerlendiriyor. AB’nin, şirketler ve ülkeler için referans olabilecek kendi yaş doğrulama uygulaması da bulunuyor.
Sosyal medya platformlarında yaş doğrulama sistemlerinin çocukları korumak için yeterli olup olmadığı tartışma konusu olmaya devam ediyor. Teknolojinin gelişmesiyle birlikte daha güvenilir ve etkili yöntemlerin geliştirilmesi, çocukların çevrimiçi ortamda korunması için kritik önem taşıyor.
Meta’nın karşı karşıya olduğu bu soruşturma, sosyal medya platformlarının çocuk güvenliği konusundaki sorumluluklarını bir kez daha gündeme getiriyor. AB’nin kararlılığı ve olası cezalar, diğer platformları da benzer önlemler almaya teşvik edebilir. Bu süreç, internetin çocuklar için daha güvenli bir yer haline gelmesine katkıda bulunabilir. Ancak, teknoloji şirketlerinin sürekli olarak yeni yöntemler geliştirmesi ve düzenleyici kurumların da bu gelişmelere ayak uydurması gerekiyor. Aksi takdirde, çocuklar çevrimiçi dünyadaki risklere karşı savunmasız kalmaya devam edecektir.
