در تصمیمی که میتواند تأثیر قابلتوجهی بر آینده حریم خصوصی کاربران اروپایی بگذارد، شرکت متا اعلام کرده است که بار دیگر فرآیند آموزش مدلهای هوش مصنوعی خود را با استفاده از دادههای عمومی کاربران بزرگسال در اتحادیه اروپا آغاز خواهد کرد — این بار اما با چراغ سبز نهادهای نظارتی.
این اقدام، پس از توقفی تقریباً یکساله به دلیل نگرانیهای مقامات حفاظت از دادهها در ایرلند، اکنون با تأیید هیئت حفاظت از دادههای اروپا (EDPB) از سر گرفته شده است. متا مدعی است که این آموزشها میتواند به درک بهتر زبان، فرهنگ و تاریخ کاربران اروپایی توسط مدلهای هوش مصنوعی کمک کند.
چه دادههایی استفاده میشود و چه دادههایی نه؟
طبق اعلام متا، تنها دادههای عمومی شامل پستها، نظرات و تعامل کاربران با ابزارهای هوش مصنوعی این شرکت برای آموزش استفاده خواهد شد. پیامهای خصوصی و اطلاعات مربوط به کاربران زیر ۱۸ سال مشمول این فرآیند نیستند.
کاربران اروپایی در روزهای آینده اعلانهایی در اپلیکیشنها و از طریق ایمیل دریافت خواهند کرد که جزئیات دقیق این جمعآوری داده را تشریح کرده و لینک فرم اعتراض به استفاده از دادهها نیز در آنها گنجانده شده است. متا تأکید کرده است که به تمام اعتراضات گذشته و آینده احترام خواهد گذاشت.
حتما بخوانید: حمله «Rules File Backdoor» | وقتی هوش مصنوعی به دروازهای برای نفوذ تبدیل میشود
از گوگل و OpenAI تا متا؛ مسیر پرچالش آموزش مدلهای هوش مصنوعی با دادههای کاربران
متا در بیانیهای اشاره کرده است که این اقدام، در ادامه الگوییست که پیشتر توسط گوگل و OpenAI نیز دنبال شده است؛ دو شرکتی که برای آموزش مدلهای خود، از دادههای کاربران اروپایی بهره گرفتهاند.
اما برخلاف آنها، متا اینبار سعی کرده است مسیر قانونیتری طی کند و با جلب نظر مقامات نظارتی، فرآیند را بهصورت شفاف و با امکان اعتراض کاربر آغاز کند.
آیا حفظ حریم خصوصی واقعاً ممکن است؟
با وجود ادعاهای متا مبنی بر رعایت قوانین سختگیرانه GDPR و شفافسازی در مورد دادههای مورداستفاده، بسیاری از کارشناسان حوزه امنیت سایبری نسبت به اجرای عملی این وعدهها تردید دارند. نگرانی اصلی اینجاست که حتی دادههای بهظاهر عمومی میتوانند در کنار یکدیگر، الگوهای دقیق و حساسی از رفتار و هویت کاربران ایجاد کنند.
جالب آنکه این خبر همزمان با گزارشی از سوی اپل منتشر شده است که در آن، استفاده از تکنیکهایی چون حریم خصوصی افتراقی (Differential Privacy) و تولید داده مصنوعی برای بهبود تجربه کاربری بدون افشای اطلاعات واقعی کاربران مورد تأکید قرار گرفته است. این گزارشها اپل را به عنوان نمونهای متمایز در حفظ حریم خصوصی، در تقابل با متا و گوگل قرار میدهند.
زنگ خطری برای متخصصان امنیت سایبری:
این اتفاق یک زنگ خطر دیگر برای کارشناسان حوزه امنیت سایبری و حقوق داده است. هرچند دادهها عمومی باشند، تجمیع، تحلیل و استفاده از آنها در مدلهای هوش مصنوعی میتواند منجر به بازشناسایی افراد و ساخت نمایههای رفتاری حساس شود.
✅ آیا باید دادههای عمومی را هم مانند دادههای خصوصی محافظت کرد؟
✅ آیا کاربران باید درباره کاربردهای AI آگاهانهتر تصمیم بگیرند؟
✅ آیا شفافسازی و اختیار واقعی در سیاستهای دادهای شرکتها وجود دارد؟
جمعبندی:
اگرچه متا سعی دارد با شفافیت بیشتر، اعتماد کاربران اروپایی را جلب کند، اما استفاده از دادههای عمومی برای آموزش AI هنوز هم خطراتی برای حریم خصوصی در پی دارد. برای فعالان حوزه امنیت سایبری، تحلیلگران داده، و مدیران IT این سؤال مطرح است:
آیا چنین اقداماتی آغازی برای نادیده گرفتن تدریجی مرزهای حریم خصوصی کاربران است؟