محققان امنیت سایبری اخیراً آسیبپذیریهای جدی را در اپلیکیشن iOS دیپسیک (DeepSeek) کشف کردهاند که نگرانیهای زیادی را در مورد حریم خصوصی و امنیت ملی برانگیخته است. طبق گزارش NowSecure، این اپلیکیشن که از ۲۵ ژانویه ۲۰۲۵ به یکی از پربازدیدترین اپهای iOS تبدیل شده، اطلاعات حساس کاربران را بدون رمزگذاری به سرورهایی که تحت کنترل ByteDance (شرکت مادر TikTok) هستند، ارسال میکند. این موضوع خطر استراق سمع، رهگیری دادهها و نظارت بر کاربران را افزایش میدهد.
با افشای آسیبپذیریهای امنیتی در اپلیکیشن DeepSeek iOS، سوالات زیادی درباره امنیت دادهها، حریم خصوصی کاربران و نحوهی مدیریت اطلاعات در این سرویس مطرح شده است. در مقابل، شرکت OpenAI، که یکی از رهبران حوزهی هوش مصنوعی است، رویکرد متفاوتی در زمینهی امنیت و محافظت از دادهها دارد. در این مقاله از سلام دیجی، به مقایسهی امنیتی این دو پلتفرم پرداختهایم تا شباهتها و تفاوتهای آنها را بررسی کنیم.
مدیریت و انتقال دادهها
ویژگی |
DeepSeek |
OpenAI (ChatGPT و سایر سرویسها) |
رمزگذاری دادهها در حین انتقال |
برخی دادهها بدون رمزگذاری ارسال شدهاند (طبق گزارش NowSecure) |
از پروتکلهای امن مانند TLS 1.2 و TLS 1.3 برای انتقال دادهها استفاده میکند |
ذخیرهسازی اطلاعات کاربران |
برخی دادههای حساس در حافظهی کش دستگاه ذخیره شدهاند. |
اطلاعات کاربران در دیتاسنترهای امن و تحت پروتکلهای امنیتی نگهداری میشود |
ارسال دادهها به سرورهای خارجی |
دادهها به سرورهای Volcengine (متعلق به ByteDance) ارسال میشود |
دادهها در سرورهای مستقر در ایالات متحده و کشورهای دیگر (با رعایت قوانین محلی) پردازش میشوند |
نتیجه: OpenAI رویکرد محافظهکارانهتری در مدیریت انتقال و ذخیرهسازی دادهها دارد و از رمزگذاری استانداردهای پیشرفتهتری استفاده میکند. در مقابل، گزارشهای اخیر درباره DeepSeek نشان میدهد که برخی دادهها ممکن است بدون رمزگذاری کافی منتقل شده باشند.
امنیت رمزنگاری و مدیریت کلیدها
ویژگی |
DeepSeek |
OpenAI |
روشهای رمزنگاری |
استفاده از Triple DES (3DES) که قدیمی و کمتر امن است |
استفاده از AES-256 و دیگر روشهای مدرن رمزنگاری |
مدیریت کلیدهای رمزنگاری |
برخی کلیدهای رمزگذاری درون کد اپلیکیشن یافت شده است |
کلیدهای رمزگذاری بهصورت ایمن در سرورهای محافظتشده نگهداری میشوند |
نتیجه: OpenAI از رمزگذاری قویتر و مدیریت ایمنتر کلیدها استفاده میکند، در حالی که DeepSeek به دلیل استفاده از الگوریتمهای قدیمی مانند 3DES و ذخیرهسازی ناامن کلیدها مورد انتقاد قرار گرفته است.
جمعآوری و استفاده از دادههای کاربران
ویژگی |
DeepSeek |
OpenAI |
جمعآوری دادههای کاربران |
جمعآوری اطلاعاتی مانند نام دستگاه، سیستمعامل، پیکربندی شبکه |
دادههای کاربران برای بهبود مدلهای AI تحلیل میشوند اما طبق سیاست حریم خصوصی، امکان غیرفعالسازی وجود دارد |
سیاست حریم خصوصی |
مشخص نشده که کاربران چگونه میتوانند کنترل بیشتری روی دادههای خود داشته باشند |
کاربران میتوانند درخواست حذف دادههای خود را بدهند |
نتیجه: OpenAI به کاربران گزینههای بیشتری برای کنترل دادههای خود ارائه میدهد، در حالی که سیاستهای DeepSeek در این مورد هنوز بهطور دقیق مشخص نشده است.
تطابق با قوانین بینالمللی حریم خصوصی
قانون/استاندارد |
DeepSeek |
OpenAI |
GDPR (اروپا) |
مشخص نیست |
رعایت میشود |
CCPA (کالیفرنیا) |
مشخص نیست |
رعایت میشود |
SOC 2 Type II (امنیت ابری) |
مشخص نیست |
گواهی دریافت شده |
نتیجه: OpenAI تطابق بیشتری با استانداردهای بینالمللی امنیت دادهها و حریم خصوصی دارد، در حالی که اطلاعات مربوط به DeepSeek در این زمینه هنوز بهطور شفاف منتشر نشده است.
جمعبندی: امنیت DeepSeek و OpenAI در یک نگاه
- OpenAI از پروتکلهای امنیتی مدرنتری برای رمزگذاری و انتقال دادهها استفاده میکند.
- DeepSeek طبق گزارش NowSecure، در برخی بخشها از رمزگذاری ضعیفتر استفاده کرده و برخی دادهها را بهصورت ناامن منتقل میکند.
- OpenAI به کاربران کنترل بیشتری روی دادههایشان میدهد، در حالی که سیاستهای DeepSeekدر این مورد هنوز بهطور دقیق مشخص نشده است.
- OpenAI با استانداردهای بینالمللی حریم خصوصی مطابقت دارد، در حالی که اطلاعات مربوط به تطابق DeepSeek با این استانداردها هنوز واضح نیست.
بیشتر بخوانید: هوش مصنوعی در امنیت سایبری | زنگ خطر برای سازمانهای ایرانی
DeepSeek هنوز در مراحل اولیه توسعه است
با این حال، باید توجه داشت که DeepSeek یک پلتفرم تازهوارد در دنیای هوش مصنوعی است و هنوز در حال بهینهسازی و رفع اشکالات امنیتی است. بسیاری از محصولات نرمافزاری در مراحل اولیهی خود دچار مشکلات امنیتی و بهینهسازی هستند که با گذشت زمان و دریافت بازخورد از کاربران، بهبود پیدا میکنند.
در مقابل، OpenAI سالها تجربه در ارائهی خدمات هوش مصنوعی دارد و از ابتدا روی زیرساختهای امنیتی قویتر سرمایهگذاری کرده است. با این حال، هیچ پلتفرمی بدون نقص نیست و امنیت یک فرآیند مداوم است که نیاز به بهروزرسانیهای مستمر دارد.
🔍 نتیجهگیری مقایسه امنیتی:
DeepSeek به عنوان یک تازهوارد در دنیای هوش مصنوعی نیاز به بهبود زیرساختهای امنیتی خود دارد، اما این موضوع لزوماً نشاندهندهی ضعف کلی این پلتفرم نیست. OpenAI به دلیل سابقهی طولانیتر، در حال حاضر استانداردهای بالاتری را رعایت میکند، اما باید دید که DeepSeek در آینده چگونه میتواند مسائل امنیتی خود را بهبود دهد و اعتماد کاربران را جلب کند.
چگونه از هوش مصنوعی (AI) استفاده کنیم که کمترین خطر امنیتی را داشته باشد؟
استفاده از ابزارهای هوش مصنوعی، چه دیپسیک (DeepSeek)، چه OpenAI (ChatGPT) یا سایر مدلهای مشابه، همیشه ریسکهای امنیتی و حریم خصوصی خاص خود را دارد. اما میتوان با رعایت چند اصل، خطرات را به حداقل رساند.
✅ ۱. استفاده از نسخههای خودمیزبان (Self-Hosted AI)
اگر امنیت و حریم خصوصی برای شما حیاتی است (مثلاً در سازمانهای دولتی، شرکتهای فناوری و حوزههای حساس)، بهتر است از مدلهای AI که روی سرورهای خودتان اجرا میشوند استفاده کنید، مانند:
- Llama 2 (Meta AI)
- Mistral AI
- Falcon (TII UAE)
- DeepSeek LLM (نسخهای که روی سرورهای خصوصی اجرا شود)
با این روش، دادههای شما روی سرورهای شرکتهای دیگر ذخیره نمیشود و ریسک افشای اطلاعات کاهش مییابد.
✅ ۲. استفاده از VPN و رمزگذاری ارتباطات
هنگام استفاده از AIهای تحت وب (مثلاً ChatGPT، Bard یا DeepSeek) بهتر است از:
- VPN برای مخفی کردن مکان و IP خود استفاده کنید.
- HTTPS فعال و TLS 1.3 را در مرورگر بررسی کنید.
- افزونههای امنیتی مرورگر مثل uBlock Origin و Privacy Badger را نصب کنید.
✅ ۳. ارسال حداقل اطلاعات شخصی و حساس
هیچگاه دادههای محرمانه، تجاری یا شخصی را در چتباتهای عمومی وارد نکنید، مثلاً:
🚫 پسوردها و اطلاعات ورود
🚫 اسناد محرمانه سازمانی
🚫 کدهای حساس برنامهنویسی
OpenAI تأیید کرده که ممکن است از چتهای کاربران برای بهبود مدلهای هوش مصنوعی استفاده کند. دیپسیک نیز دادهها را به چین ارسال میکند. بنابراین، همیشه فرض کنید که مکالمات شما ممکن است ذخیره و آنالیز شوند.
✅ ۴. استفاده از راهکارهای سازمانی امن (Enterprise AI Solutions)
برخی از شرکتهای بزرگ، نسخههای ایمنتر و سازمانی از چتباتهای AI ارائه میدهند که برای کاربران عادی در دسترس نیستند. این نسخهها ذخیرهسازی اطلاعات را محدود میکنند و امنیت بالاتری دارند، مثل:
- ChatGPT Enterprise (نسخه امنتر OpenAI)
- Microsoft Azure OpenAI Service
- Anthropic Claude for Business
اگر در یک شرکت یا سازمان حساس کار میکنید، استفاده از این گزینهها امنتر از نسخههای عمومی است.
✅ ۵. پایش و بررسی ترافیک شبکه
برای کاربران حرفهای و مدیران امنیتی، پیشنهاد میشود ترافیک شبکه را بررسی کنند تا ببینند دادهها به کجا ارسال میشوند. ابزارهایی مانند:
- Wireshark (تحلیل بستههای داده)
- Splunk (برای لاگگیری امنیتی)
- XDR,EDR های بر پایه هوش مصنوعی
میتوانند به تشخیص ارتباطات مشکوک یا ناامن کمک کنند.
اگر اپلیکیشنی بدون اطلاع شما دادهها را به سرورهای نامطمئن ارسال میکند، میتوان از فایروال های نسل جدید سازمانی برای مسدود کردن آن استفاده کرد.
✅ ۶. رعایت قوانین و سیاستهای امنیتی سازمان
بسیاری از کشورها قوانین سختگیرانهای در مورد استفاده از هوش مصنوعی و انتقال دادهها به سرورهای خارجی دارند. قبل از استفاده از AI، بررسی کنید که:
- آیا مقررات حریم خصوصی (مثل GDPR، CCPA، HIPAA) رعایت شدهاند؟
- آیا سازمان شما اجازه استفاده از این ابزارها را میدهد؟
- آیا دادهها در کشوری امن ذخیره میشوند؟
✅ ۷. بهروز نگهداشتن نرمافزار و بررسی آسیبپذیریها
- بسیاری از آسیبپذیریها زمانی کشف میشوند که کاربران از نسخههای قدیمی و ناامن اپلیکیشنها استفاده کنند.
- همیشه AIهای تحت وب را از منابع رسمی باز کنید (نه از لینکهای مشکوک).
- اگر از AIهای محلی (Self-Hosted) استفاده میکنید، مدلها و نرمافزارها را مرتب بهروز کنید.
- اخبار امنیتی و تحقیقات در مورد AIهای مختلف را از منابع معتبرهمچون سلام دیجی دنبال کنید.
🔍 نتیجهگیری: چگونه از هوش مصنوعی ها بصورت ایمن در سازمان خود استفاده کنیم؟
✅ اگر امنیت برای شما مهم است، از AI های خودمیزبان (Self-Hosted) یا نسخههای سازمانی استفاده کنید.
✅ اگر از AIهای آنلاین مثل ChatGPT یا DeepSeek استفاده میکنید، هیچگاه اطلاعات حساس را وارد نکنید.
✅ ترافیک و ارتباطات شبکه را زیر نظر داشته باشید تا دادههای شما به مکانهای غیرمنتظره ارسال نشود.
✅ همیشه از HTTPS، VPN و رمزگذاری قوی استفاده کنید.
✅ بهروز باشید و اخبار امنیتی مربوط به AI را دنبال کنید.
🛡️ و در آخرهمیشه گفته ایم و باز هم می گوییم که در دنیای پر هیاهوی هوش مصنوعی ها، امنیت یک انتخاب نیست، بلکه یک ضرورت است. 🚀
❓ پرسشهای متداول (FAQ) درباره امنیت استفاده از هوش مصنوعی
🔹 ۱. آیا استفاده از هوش مصنوعی مثل DeepSeek یا ChatGPT امن است؟
✅ پاسخ: بستگی به نحوه استفاده دارد. اگر اطلاعات حساس وارد نکنید و از نسخههای امنتر مثل ChatGPT Enterprise یا نسخههای خودمیزبان (Self-Hosted AI) استفاده کنید، امنیت بیشتری خواهید داشت. اما چتباتهای عمومی ممکن است دادههای شما را برای بهبود مدلها ذخیره کنند.
🔹 ۲. دادههایی که در ChatGPT یا DeepSeek وارد میکنم، ذخیره میشوند؟
✅ پاسخ: بله، در نسخههای رایگان و عمومی ChatGPT و DeepSeek، اطلاعات شما ممکن است برای آموزش مدلهای هوش مصنوعی ذخیره و تحلیل شوند. OpenAI در نسخه Enterprise ذخیرهسازی را غیرفعال کرده، اما DeepSeek دادهها را به سرورهای چین ارسال میکند که باعث نگرانیهای امنیتی شده است.
🔹 ۳. چطور بفهمم هوش مصنوعی دادههای من را ذخیره میکند؟
✅ پاسخ: بررسی سیاستهای حریم خصوصی (Privacy Policy) و شرایط استفاده (Terms of Service) اولین قدم است. همچنین میتوانید:
🔹 ترافیک شبکه را با ابزارهایی مثل Wireshark تحلیل کنید.
🔹 فایروال تنظیم کنید تا ببینید دادهها به چه سروری ارسال میشوند.
🔹 اگر رمزگذاری ضعیف باشد، ممکن است اطلاعات شما در معرض خطر باشد.
🔹 ۴. آیا DeepSeek امنیت پایینتری نسبت به ChatGPT دارد؟
✅ پاسخ: بر اساس گزارش NowSecure، DeepSeek دارای نقصهای امنیتی است، از جمله:
🔸 ارسال دادهها به چین بدون رمزگذاری قوی.
🔸 استفاده از الگوریتمهای رمزنگاری قدیمی (3DES) .
🔸 ذخیرهسازی نام کاربری و رمز عبور بهصورت ناامن.
🔸 غیرفعال کردن App Transport Security (ATS) در iOS .
📌 با این حال، DeepSeek یک AI تازهوارد است و ممکن است در آینده این مشکلات را برطرف کند. ChatGPT نیز در گذشته مسائل امنیتی داشته، اما نسخههای Enterprise و Azure OpenAI از دادههای کاربران محافظت میکنند.
🔹 ۵. آیا هوش مصنوعی میتواند باعث نشت اطلاعات سازمانی شود؟
✅ پاسخ: بله! اگر اطلاعات حساس شرکت، استراتژیها یا کدهای نرمافزاری را در چتباتها وارد کنید، ممکن است در مدلها ذخیره شده و در آینده به کاربران دیگر نمایش داده شود. برای جلوگیری از این مشکل:
🔹 از AIهای خودمیزبان (Self-Hosted AI) استفاده کنید.
🔹 از نسخههای سازمانی مثل ChatGPT Enterprise بهره ببرید.
🔹 دسترسی به این ابزارها را برای کارمندان محدود کنید.
🔹 ۶. آیا VPN باعث افزایش امنیت هنگام استفاده از هوش مصنوعی میشود؟
✅ پاسخ: بله، VPN میتواند آدرس IP شما را مخفی کند و احتمال ردیابی را کاهش دهد. اما اگر AI موردنظر اطلاعات را داخل خودش ذخیره کند، VPN نمیتواند از این موضوع جلوگیری کند. برای امنیت بیشتر:
✅ VPN + مرورگر امن + عدم ارسال اطلاعات حساس.
🔹 ۷. آیا هوش مصنوعی میتواند مورد حمله سایبری قرار بگیرد؟
✅ پاسخ: بله، مدلهای هوش مصنوعی میتوانند در برابر حملاتی مثل:
🔸 Prompt Injection (تزریق ورودیهای مخرب برای دستکاری پاسخها)
🔸 Data Poisoning (آلوده کردن دادههای آموزشی برای تغییر عملکرد مدل)
🔸 Model Inversion (بازسازی دادههای کاربر از خروجیهای AI)
مقاومت کمی داشته باشند. بنابراین، همیشه باید از نسخههای معتبر و ایمن استفاده کرد.
🔹 8. آیا ممکن است در آینده DeepSeek امنیت بهتری داشته باشد؟
✅ پاسخ: بله، DeepSeek تازه عرضه شده و هنوز در مرحله رشد است. اگر مشکلات امنیتی را رفع کند و نسخههایی با رمزگذاری قویتر و ذخیرهسازی امنتر ارائه دهد، میتواند گزینهای بهتر برای کاربران باشد.
📌 اما تا زمانی که این مشکلات برطرف نشوند، توصیه میشود از این هوش مصنوعی با احتیاط بیشتری استفاده کنید.
🔹 9. چطور میتوانم امنیت خود را هنگام استفاده از AI افزایش دهم؟
✅ پاسخ: چند راهکار مهم:
🔹 از VPN و HTTPS استفاده کنید.
🔹 هیچ اطلاعات حساسی را وارد نکنید.
🔹 دسترسی AI را به دادههای دستگاه خود محدود کنید.
🔹 از نسخههای سازمانی یا خودمیزبان استفاده کنید.
🔹 ترافیک شبکه را بررسی کنید تا ببینید دادهها به کجا ارسال میشوند.