DeepSeek: زنگ خطری برای نوآوری مسئولانه و مدیریت ریسک در هوش مصنوعی

دیپسیک: زنگ خطری برای نوآوری مسئولانه و مدیریت ریسک
آیا باید نگران بود؟ پاسخ کوتاه: همگان و هیچکس.
از زمان راهاندازی دیپسیک R1 در تاریخ 20 ژانویه، این فناوری توجه کاربران، غولهای فناوری، دولتها و سیاستگذاران را در سطح جهانی جلب کرده است. از تحسینها و شک و تردیدها گرفته تا پذیرش و ممنوعیتها، از درخشش نوآوری تا آسیبپذیریهای غیرقابل اندازهگیری در زمینه حریم خصوصی و امنیت.
نویسنده: مراب اوزیر، دکترا
لحظهای برای بیداری
دیپسیک توانسته است یک مدل زبان بزرگ (LLM) توسعه دهد که در عملکرد با OpenAI GTPo1 قابل مقایسه است و این کار را در زمانی بسیار کمتر و هزینهای کمتر از آنچه که دیگر شرکتهای فناوری انجام دادهاند، محقق کرده است.
با استفاده از بهینهسازیهای هوشمندانه در معماری، هزینههای آموزش و استنتاج مدل به طرز چشمگیری کاهش یافته و دیپسیک توانسته است در مدت 60 روز و با هزینهای کمتر از 6 میلیون دلار LLM خود را توسعه دهد.
بهراستی، دیپسیک باید به خاطر تلاشهایش در بهینهسازی ساختار و کد مدل مورد تقدیر قرار گیرد. این یک زنگ خطر است، اما بههیچوجه یک «لحظه اسپوتنیک» نیست.
هر توسعهدهندهای میداند که برای افزایش عملکرد دو راه وجود دارد: بهینهسازی کد و یا استفاده از قدرت محاسباتی زیاد. گزینه دوم بسیار پرهزینه است و همیشه توصیه میشود که توسعهدهندگان ابتدا به بهینهسازی معماری بپردازند.
به نظر میرسد که با ارزشگذاریهای بالا بر روی استارتاپهای هوش مصنوعی و سرمایهگذاریهای کلان، توسعهدهندگان تنبل شدهاند. چرا باید وقت خود را صرف بهینهسازی معماری مدل کنند اگر میلیاردها دلار برای خرج کردن در دسترس باشد؟
این یک زنگ خطر برای تمام توسعهدهندگان است تا به اصول اولیه بازگردند. نوآوری مسئولانه، خروج از منطقه راحتی، تفکر خارج از چارچوب و عدم ترس از چالش کشیدن نُرمها. نیازی به هدر دادن پول و منابع نیست — از آنها بهخوبی استفاده کنید.
مانند دیگر LLMها، دیپسیک R1 نیز در زمینه استدلال، برنامهریزی پیچیده، درک دنیای فیزیکی و حافظه دائمی با محدودیتهایی مواجه است. بنابراین، هیچ نوآوری زمینلرزهای در اینجا وجود ندارد.
راهی به سوی نوآوری تسریعشده
رویکرد دیپسیک میتواند توسعهدهندگان در سراسر جهان، از جمله کشورهای در حال توسعه، را تشویق کند تا نوآوری کرده و برنامههای هوش مصنوعی خود را با وجود منابع کم توسعه دهند. هر چه تعداد بیشتری به تحقیق و توسعه هوش مصنوعی بپردازند، نوآوری سریعتر پیشرفت کرده و احتمال دستیابی به breakthroughs معنادار بیشتر میشود.
این با پروژه انویدیا همراستا است: هدف این پروژه این است که هوش مصنوعی را در دسترس همه توسعهدهندگان و دانشمندان قرار دهد. این همان معنای پروژه DIGITS است، که در اوایل ژانویه اعلام شد؛ یک GPU سه هزار دلاری برای دسکتاپ شما.
بشر به “همه ذهنها در خدمت” نیاز دارد تا مشکلات فوری انسانیت را حل کند. دیگر منابع نمیتوانند مانع باشند — زمان آن فرا رسیده که الگوهای قدیمی را به چالش بکشیم.
بخوانید و توجه کنید
تمام برنامهها دارای شرایط خدمات هستند که عموم مردم بهطور معمول به آن توجهی نمیکنند.
جزئیات نگرانکنندهای در شرایط خدمات دیپسیک وجود دارد که میتواند بر حریم خصوصی، امنیت و حتی استراتژی کسبوکار شما تأثیر بگذارد:
- نگهداری دادهها: حذف حساب شما به معنای پاک شدن دادهها نیست — دیپسیک آنها را نگه میدارد.
- نظارت: این برنامه حق دارد ورودیها و خروجیهای کاربران را نظارت، پردازش و جمعآوری کند، شامل اطلاعات حساس.
- معرض قانونی: دیپسیک تحت قوانین چین قرار دارد، به این معنی که مقامات دولتی میتوانند بنا به درخواست به دادههای شما دسترسی داشته باشند — دولت چین بهطور فعال دادههای شما را زیر نظر دارد.
- تغییرات یکجانبه: دیپسیک میتواند شرایط را در هر زمان و بدون رضایت شما بهروزرسانی کند.
- اختلافات و دعاوی: تمام دعاوی و مسائل قانونی تحت قوانین جمهوری خلق چین قرار دارد.
موارد فوق نقضهای واضحی از مقررات عمومی حفاظت از دادهها (GDPR) و دیگر نقضهای حریم خصوصی و امنیت GDPR هستند، همانطور که در شکایات ثبتشده توسط بلژیک، ایرلند و ایتالیا ذکر شده که همچنین استفاده از دیپسیک را بهطور موقت ممنوع کردهاند.
در مارس 2023، نهادهای ایتالیایی بهطور موقت استفاده از OpenAI ChatGPT را بهدلیل نقضهای GDPR ممنوع کردند قبل از اینکه یک ماه بعد پس از بهبودهای مربوط به رعایت قوانین، آن را دوباره بهخط بکشند. آیا دیپسیک نیز به این قوانین پایبند خواهد بود؟
تبعیض و سانسور
مانند دیگر LLMها، دیپسیک R1 نیز دچار توهمات، تعصبات در دادههای آموزشی و رفتارهایی است که نظرات سیاسی چین را در برخی موضوعات، مانند سانسور و حریم خصوصی، منعکس میکند.
بهعنوان یک شرکت چینی، این انتظار میرود. قانون هوش مصنوعی تولیدی چین که به ارائهدهندگان و کاربران سیستمهای هوش مصنوعی مربوط میشود، در ماده 4 خود اینگونه بیان میکند:
این یک قانون سانسور است. به این معنی که کسانی که هوش مصنوعی تولیدی را توسعه و یا استفاده میکنند باید از “ارزشهای اجتماعی اصلی” حمایت کرده و از قوانین چینی در این زمینه پیروی کنند.
این به این معنا نیست که دیگر LLMها تعصبات و “برنامهها” خود را ندارند. این موضوع توجه به نیاز به هوش مصنوعی قابل اعتماد و مسئولانه و لزوم رعایت مدیریت ریسک هوش مصنوعی را یادآوری میکند.
آسیبپذیریهای امنیتی LLM
مدلهای زبان بزرگ ممکن است در معرض حملات خصمانه و آسیبپذیریهای امنیتی قرار بگیرند. این آسیبپذیریها حتی بیشتر نگرانکننده هستند، زیرا بر هر برنامهای که بر این LLMها توسط هر سازمان یا فردی ساخته میشود، تأثیر میگذارند.
Qualys مدل دیپسیک-R1 LLaMA 8B را برای آسیبپذیریها، نگرانیهای اخلاقی و ریسکهای قانونی آزمایش کرده است. این مدل در نیمه از تلاشهای jailbreak — یعنی تلاش برای دور زدن تدابیر ایمنی و دستورالعملهای اخلاقی که در مدلهای هوش مصنوعی مانند LLMها تعبیه شدهاند — شکست خورد.
گلدمن ساکس در نظر دارد از دیپسیک استفاده کند، اما این مدل نیاز به بررسی امنیتی دارد، مانند تزریقهای دستوری و jailbreak. این یک نگرانی امنیتی برای هر شرکتی است که از یک مدل هوش مصنوعی برای قدرتبخشی به برنامههای خود استفاده میکند، صرفنظر از اینکه آن مدل چینی باشد یا نه.
گلدمن ساکس مدیریت ریسک درستی را پیادهسازی میکند و دیگر سازمانها نیز باید قبل از تصمیمگیری برای استفاده از دیپسیک از این رویکرد پیروی کنند.
درسهای آموختهشده
ما باید هوشیار و دقیق باشیم و قبل از استفاده از هر سیستم یا برنامه هوش مصنوعی، مدیریت ریسک کافی را پیادهسازی کنیم. برای کاهش هرگونه “برنامه” و سانسور LLM ناشی از توسعه متمرکز، ممکن است به فکر هوش مصنوعی غیرمتمرکز باشیم، که ترجیحاً بهصورت یک سازمان خودگردان غیرمتمرکز (DAO) ساختاربندی شده باشد. هوش مصنوعی مرزی نمیشناسد. شاید زمان آن رسیده باشد که به مقررات جهانی واحد برای هوش مصنوعی فکر کنیم.
نویسنده: مراب اوزیر، دکترا.
این مقاله صرفاً برای مقاصد اطلاعاتی عمومی است و نباید بهعنوان مشاوره قانونی یا سرمایهگذاری تلقی شود. نظرات، افکار و ایدههای بیانشده در اینجا تنها نظرات نویسنده است و لزوماً بازتابدهنده دیدگاهها و نظرات Cointelegraph نیست.