۴ قانون طلایی برای استفاده ایمن از هوش مصنوعی
۴ قانون طلایی برای استفاده ایمن از هوش مصنوعی

در حالی که ابزارهای هوش مصنوعی به سرعت به بخشی جدایی‌ناپذیر از زندگی روزمره، از برنامه‌نویسی تا یادداشت‌برداری، تبدیل شده‌اند، حفظ حریم خصوصی کاربران به یک نگرانی جدی تبدیل شده است. یکی از مهندسان امنیت گوگل، با اشاره به خطراتی چون نشت داده‌ها و دسترسی مجرمان سایبری، چهار عادت ضروری را برای محافظت از داده‌ها […]

۴ قانون طلایی برای استفاده ایمن از هوش مصنوعی

در حالی که ابزارهای هوش مصنوعی به سرعت به بخشی جدایی‌ناپذیر از زندگی روزمره، از برنامه‌نویسی تا یادداشت‌برداری، تبدیل شده‌اند، حفظ حریم خصوصی کاربران به یک نگرانی جدی تبدیل شده است. یکی از مهندسان امنیت گوگل، با اشاره به خطراتی چون نشت داده‌ها و دسترسی مجرمان سایبری، چهار عادت ضروری را برای محافظت از داده‌ها هنگام استفاده از ابزارهای هوش مصنوعی توصیه می‌کند.

تینا مزدکی_هرش وارشنی، مهندس شاغل در بخش امنیت هوش مصنوعی کروم در گوگل، تاکید می‌کند که ابزارهای هوش مصنوعی به سرعت به یک شریک خاموش در زندگی روزمره ما تبدیل شده‌اند و برای کارهایی چون تحقیق عمیق، کدنویسی و جستجوهای آنلاین بسیار مفید هستند. اما به دلیل ماهیت شغلی‌اش در تیم امنیت، او نسبت به نگرانی‌های حریم خصوصی مرتبط با استفاده از هوش مصنوعی کاملاً آگاه است.

او که پیش از این در تیم حفظ حریم خصوصی گوگل کار می‌کرده، هشدار می‌دهد که مدل‌های هوش مصنوعی برای تولید پاسخ‌های مفید از داده‌ها استفاده می‌کنند و کاربران باید از اطلاعات خصوصی خود محافظت کنند تا نهادهای مخرب مانند مجرمان سایبری و کارگزاران داده نتوانند به آن‌ها دسترسی پیدا کنند. در این راستا، این متخصص امنیت چهار عادت را معرفی می‌کند که برای محافظت از داده‌ها در حین استفاده از هوش مصنوعی ضروری هستند:

۱. با هوش مصنوعی مانند یک کارت پستال عمومی رفتار کنید

گاهی اوقات، یک حس نادرست از صمیمیت با هوش مصنوعی باعث می‌شود افراد اطلاعاتی را به صورت آنلاین به اشتراک بگذارند که هرگز در حالت عادی این کار را نمی‌کردند. اگرچه شرکت‌های هوش مصنوعی دارای کارمندانی هستند که برای بهبود جنبه‌های حریم خصوصی مدل‌هایشان تلاش می‌کنند، اما به هیچ وجه توصیه نمی‌شود جزئیاتی مانند اطلاعات کارت اعتباری، شماره‌های شناسایی، آدرس منزل، سوابق پزشکی شخصی یا سایر اطلاعات هویتی (Personally Identifiable Information – PII) را با چت‌بات‌های عمومی به اشتراک بگذارید.

بسته به نسخه‌ای که استفاده می‌شود، اطلاعاتی که با چت‌بات‌های عمومی به اشتراک گذاشته می‌شود، می‌تواند برای آموزش مدل‌های آتی و تولید پاسخ‌های مرتبط‌تر مورد استفاده قرار گیرد. این موضوع می‌تواند منجر به "نشت آموزشی" (Training Leakage) شود، جایی که مدل، اطلاعات شخصی یک کاربر را حفظ می‌کند و بعداً آن را در پاسخ به کاربر دیگری بازگو می‌کند. علاوه بر این، خطر نقض داده‌ها وجود دارد که می‌تواند اطلاعات به اشتراک گذاشته شده با چت‌بات را فاش کند.

به گفته وارشنی، کاربران باید با چت‌بات‌های هوش مصنوعی مانند یک کارت پستال عمومی رفتار کنند. اگر فردی حاضر نیست اطلاعاتی را روی یک کارت پستال بنویسد که ممکن است توسط هر کسی دیده شود، نباید آن را با یک ابزار عمومی هوش مصنوعی به اشتراک بگذارد.

۲. بدانید کجا هستید

تشخیص اینکه از یک ابزار هوش مصنوعی عمومی استفاده می‌کنید یا یک ابزار در سطح سازمانی (Enterprise-grade)، بسیار مهم است. در حالی که مشخص نیست مکالمات چگونه برای آموزش مدل‌های عمومی استفاده می‌شوند، شرکت‌ها می‌توانند برای مدل‌های «سازمانی» هزینه پرداخت کنند. در این مدل‌ها، معمولاً مکالمات کاربران برای آموزش استفاده نمی‌شود و بنابراین برای کارمندان امن‌تر است که در مورد کارهای خود و پروژه‌های شرکت صحبت کنند.

می‌توان این وضعیت را به داشتن مکالمه‌ای در یک کافی‌شاپ شلوغ که ممکن است شنیده شود، در مقابل یک جلسه محرمانه در دفتر کار که در همان اتاق باقی می‌ماند، تشبیه کرد.

گزارش‌هایی وجود داشته مبنی بر اینکه کارمندان به طور تصادفی داده‌های شرکت را در اختیار چت‌جی‌پی‌تی قرار داده‌اند. اگر روی پروژه‌های منتشر نشده شرکت کار می‌کنید، نباید برنامه‌های خود را با یک چت‌بات عمومی به دلیل خطر نشت اطلاعات به اشتراک بگذارید.

وارشنی تاکید می‌کند که پروژه‌های داخلی گوگل را با چت‌بات‌های عمومی به اشتراک نمی‌گذارد و به جای آن از مدل‌های سازمانی استفاده می‌کند، حتی برای کارهای کوچکی مانند ویرایش یک ایمیل کاری.

۴ قانون طلایی برای استفاده ایمن از هوش مصنوعی

۳. تاریخچه مکالمات خود را به طور منظم حذف کنید

چت‌بات‌های هوش مصنوعی معمولاً تاریخچه مکالمات شما را نگه می‌دارند، اما توصیه می‌شود برای حفظ حریم خصوصی در درازمدت، این تاریخچه را به طور منظم در هر دو مدل سازمانی و عمومی حذف کنید. به دلیل خطر به خطر افتادن حساب کاربری، این یک عادت احتیاطی خوب است.

وارشنی تجربه خود را بیان می‌کند که یک بار تعجب کرده بود که چت‌بات سازمانی جیمینای توانست آدرس دقیق او را بگوید، در حالی که به یاد نداشت آن را به اشتراک گذاشته باشد. مشخص شد که او قبلاً از آن خواسته بود تا در اصلاح یک ایمیل که شامل آدرسش بود، کمک کند. از آنجایی که این ابزار دارای ویژگی‌های حافظه بلندمدت است، توانسته بود آدرس او را شناسایی و حفظ کند.

او توصیه می‌کند که برای جستجوی مواردی که نمی‌خواهید چت‌بات به خاطر بسپارد، از یک حالت ویژه، شبیه به حالت ناشناس (Incognito Mode)، استفاده کنید که در آن ربات‌ها تاریخچه را ذخیره نمی‌کنند یا از اطلاعات برای آموزش مدل‌ها استفاده نمی‌کنند. چت‌جی‌پی‌تی و جیمینای این قابلیت را "چت موقت" (Temporary Chat) می‌نامند.

۴. از ابزارهای هوش مصنوعی معتبر استفاده کنید

بهتر است از ابزارهای هوش مصنوعی شناخته شده استفاده شود که احتمال بیشتری وجود دارد که دارای چارچوب‌های حریم خصوصی واضح و سایر تدابیر امنیتی باشند. علاوه بر محصولات گوگل، وارشنی استفاده از ChatGPT از OpenAI و Claude از Anthropic را توصیه می‌کند.

همچنین بررسی سیاست‌های حفظ حریم خصوصی هر ابزاری که استفاده می‌شود، مفید است. در بخش تنظیمات حریم خصوصی، کاربران می‌توانند به دنبال گزینه‌ای برای بهبود مدل برای همه باشند. با اطمینان از خاموش بودن این تنظیم، از استفاده مکالمات برای آموزش مدل جلوگیری می‌شود.

تکنولوژی هوش مصنوعی فوق‌العاده قدرتمند است، اما باید احتیاط کرد تا اطمینان حاصل شود که داده‌ها و هویت ما هنگام استفاده از آن ایمن باقی می‌مانند.

منبع: businessinsider

۲۲۷۳۲۳

کد مطلب ۲۱۵۶۰۷۹

    خرید ارزان بلیط هواپیما از ۹۰۰ ایرلاین رزرو ارزان ۱.۵ میلیون هتل در سراسر دنیا خرید آنلاین بلیط قطار با بهترین قیمت انواع تورهای مسافرتی، برای هر نوع سلیقه اخذ ویزای آنلاین ۵۰ کشور در کوتاه‌ترین زمان صدور فوری انواع بیمه مسافرتی داخلی و خارجی
  • ۴ قانون طلایی برای استفاده ایمن از هوش مصنوعی

    ۴ قانون طلایی برای استفاده ایمن از هوش مصنوعی

  • برترین کشورها در زمینه هوش مصنوعی کدامند؟

    برترین کشورها در زمینه هوش مصنوعی کدامند؟