به گزارش پایگاه خبری دانا، گروه دانش و فناوری:
هوش مصنوعی (AI) دیگر یک داستان علمی-تخیلی نیست؛ این یک واقعیت فراگیر است که سرعت پیشرفت آن از توانایی ما در درک پیامدهایش پیشی گرفته است. در حالی که این فناوری وعده رفاه، کارایی و راحتی بیسابقهای را میدهد، سایههایی تیره نیز به همراه دارد که اگر جدی گرفته نشوند، میتوانند زیربنای اجتماع، اقتصاد و فردیت ما را سست کنند. ما در خبرگزاری دانا معتقدیم که نگاه صرفاً خوشبینانه به این فناوری، سادهلوحانه و خطرناک است. در این یادداشت، به پنج خطر بزرگ و واقعی هوش مصنوعی میپردازیم که مدیران، سیاستگذاران و هر کاربر معمولی باید امروز برای آن چارهای بیندیشد.
بخش اول:
خطر بزرگ اول - تعمیق نابرابری و بیکاری ساختاری (The Job Apocalypse)
بزرگترین ترس بسیاری از مردم در مورد هوش مصنوعی، «از دست دادن شغل» است. متأسفانه، این ترس بیش از یک نگرانی خیالی است؛ این یک تحول ساختاری در حال وقوع است.
نگاه سادهانگارانه این است که «تکنولوژی همیشه شغلهای جدیدی خلق کرده است». در گذشته، اتوماسیون کارخانهها، کارگران یدی را حذف کرد، اما در عوض مشاغل اداری و خدماتی جدیدی به وجود آمد. اما این بار، تفاوت بنیادین است. هوش مصنوعی نه تنها کارگران کارخانهای، بلکه کارگران یقه سفید، نویسندگان، طراحان، برنامهنویسان سطح متوسط و تحلیلگران مالی را هدف قرار داده است.
هوش مصنوعی مولد (Generative AI) قابلیتهای خلاقانه و شناختی را تقلید میکند که پیش از این به طور کامل در انحصار انسان بود. حذف مشاغل خدماتی، اداری و حتی خلاقانه با سرعتی رخ میدهد که سیستمهای حمایتی اجتماعی ما، از جمله بازآموزی شغلی و طرحهای حمایت از بیکاری، قادر به جبران آن نیستند.
پرسش کلیدی:
آیا جامعهای که اکثر افرادش دیگر «ارزشی اقتصادی» در چارچوب نظام سرمایهداری ندارند، پایدار خواهد بود؟
وقتی بخش بزرگی از نیروی کار به دلیل ناکارآمدی اقتصادی در برابر ماشینها، از چرخه تولید خارج میشوند، شکاف طبقاتی نه تنها عمیقتر میشود، بلکه کل ساختار اجتماعی دچار تزلزل میگردد. این پتانسیل برای ایجاد یک طبقه وسیع «بیکاران دائمی» را دارد که پیامدهای سیاسی و اجتماعی آن میتواند ویرانگر باشد.
بخش دوم:
خطر بزرگ دوم - سوگیریهای الگوریتمی و تشدید تبعیض (Algorithmic Bias)
هوش مصنوعی اغلب به عنوان یک ابزار بیطرف و کاملاً منطقی معرفی میشود که از تعصبات انسانی مبرا است. این یک تصور گمراهکننده است. هوش مصنوعی بازتابی از دادههایی است که به آن دادهایم و همانطور که میدانیم، دادههای تاریخی ما مملو از تعصبات نژادی، جنسیتی، طبقاتی و فرهنگی هستند.
وقتی یک الگوریتم بر اساس سوابق تاریخی استخدامها آموزش میبیند که در آن، مردان سفیدپوست در موقعیتهای مدیریتی بیشتری بودهاند، الگوریتم به طور خودکار یاد میگیرد که این الگو را به عنوان «موفقیت» در نظر بگیرد و شانس زنان یا اقلیتها را برای استخدام در همان موقعیتها کاهش دهد.
بدتر از آن، هوش مصنوعی این تعصبات را در مقیاس وسیع، با سرعتی بسیار بالا و به شکلی کاملاً نامرئی اعمال میکند. در حوزههایی مانند وامدهی بانکی، سیستمهای عدالت کیفری (برای پیشبینی ریسک تکرار جرم) یا حتی تشخیص بیماریها، سوگیریهای الگوریتمی میتوانند به طور نامرئی تبعیضهای سنتی را «علمیسازی» کرده و آنها را در پوششی از «علم داده» توجیه کنند. این امر باعث میشود که قربانیان تبعیض، حتی ندّانند که توسط یک کد کامپیوتری و نه یک انسان مورد قضاوت ناعادلانه قرار گرفتهاند.
بخش سوم:
خطر بزرگ سوم - تمرکز قدرت در دست چند شرکت محدود (The Oligarchy of AI)
توسعه مدلهای پیشرفته هوش مصنوعی، مانند مدلهای زبان بزرگ (LLMs)، نیازمند سرمایهگذاریهای هنگفت در زیرساختهای محاسباتی، دیتاسنترهای عظیم و تراشههای تخصصی (مانند GPUها) است. این هزینهها به قدری سرسامآور است که عملاً تنها چند شرکت بزرگ فناوری در جهان (عمدتاً در دره سیلیکون) توانایی ساخت و آموزش این مدلها را دارند.
نتیجه این وضعیت، تمرکز قدرت تصمیمگیری دربارهی زیربنای آیندهی اطلاعاتی و شناختی جهان در دست تعداد معدودی از بازیگران خصوصی است که پاسخگویی آنها به دولتها یا افکار عمومی بسیار محدود است. این امر یک ریسک دموکراتیک جدی محسوب میشود.
این شرکتها نه تنها بر دادهها و زیرساختها کنترل دارند، بلکه پارادایمهای فکری و اخلاقیای که در مدلهایشان کدگذاری شدهاند، به سرعت تبدیل به استاندارد جهانی میشوند. اگر این شرکتها تحت فشار سیاسی یا اقتصادی قرار بگیرند، یا حتی اگر صرفاً تصمیمات تجاری بگیرند که با منافع عمومی در تضاد باشد، هیچ مکانیسم کنترلی فوری و مؤثر برای جلوگیری از آنها وجود ندارد. ما شاهد ظهور یک «الیگارشی هوش مصنوعی» هستیم که قدرت آن فراتر از هر شرکت یا دولتی در تاریخ مدرن است.
بخش چهارم:
خطر بزرگ چهارم - بحران حقیقت و دیپفیکهای فراگیر (The Epistemic Crisis)
یکی از مهلکترین خطرات هوش مصنوعی، توانایی آن در تولید محتوای جعلی اما فوقالعاده واقعی است. ظهور هوش مصنوعی مولد، مرز بین آنچه واقعی است و آنچه ساخته شده، را محو کرده است.
تولید دیپفیکهای صوتی، تصویری و ویدئویی که تشخیص آنها از محتوای واقعی عملاً ناممکن شده، زیربنای اعتماد اجتماعی ما را هدف قرار میدهد. اعتماد به نهادهای خبری، شواهد عینی و حتی شهادتهای بصری، سنگ بنای یک جامعه کارآمد و دموکراتیک است.
وقتی نتوانیم به چشمان خودمان اعتماد کنیم، شاهد زوال تدریجی اعتماد اجتماعی خواهیم بود. این خطر مستقیماً بر امنیت ملی، سلامت انتخابات و روابط بینالملل تأثیر میگذارد. تصور کنید در آستانه یک انتخابات مهم، کلیپهای ویدئویی جعلی اما قانعکننده از نامزدهای اصلی منتشر شود که در عرض چند ساعت به میلیونها نفر میرسد و هیچ راهی برای راستیآزمایی سریع وجود ندارد. هوش مصنوعی ابزاری ایدهآل برای پخش گسترده نفوذ، اطلاعات غلط و هرج و مرج شناختی است.
بخش پنجم:
خطر بزرگ پنجم - از دست دادن خودمختاری شناختی (The Dependence Trap)
همانطور که ماشینها وظایف فیزیکی ما را به عهده گرفتند، هوش مصنوعی در حال گرفتن وظایف شناختی ماست. ما به طور فزایندهای به دستیارهای هوشمند برای تصمیمگیریهای کوچک و بزرگ اتکا میکنیم؛ از مسیریابی رانندگی گرفته تا نوشتن ایمیلها و حتی تحلیلهای پیچیده تجاری.
در حالی که این اتکا کارایی را بالا میبرد، هزینه پنهانی دارد: فرسایش تدریجی تواناییهای شناختی خودمان. اگر هر بار که دچار تردید میشویم، از ماشین سؤال بپرسیم، آیا در حال تبدیل شدن به موجوداتی با تواناییهای شناختی کاهشیافته نیستیم؟
این خطر صرفاً در مورد کند شدن حافظه نیست؛ بلکه در مورد توانایی ما برای تفکر نقادانه، استدلال پیچیده و حل مسئله بدون کمک است. اگر مغز ما یاد بگیرد که برای هر چیزی به یک سیستم خارجی برونسپاری کند، در مواجهه با موقعیتهایی که این سیستمها در دسترس نیستند یا خطا میکنند، آسیبپذیر خواهیم شد. این «آتروفی مغزی» ناشی از راحتی بیش از حد، فردیت و خودمختاری فکری ما را تهدید میکند.
نتیجهگیری:
فراخوان برای هوشیاری
پنج شبحی که مطرح شد، بیکاری ساختاری، تعصب الگوریتمی، تمرکز قدرت، بحران حقیقت و از دست دادن خودمختاری شناختی – چالشهایی نیستند که بتوان آنها را به آینده موکول کرد. اینها چالشهای وجودی عصر ما هستند که همین امروز نیازمند اقدام هستند.
توقف توسعه هوش مصنوعی، یک واقعبینی نیست. اما هدایت این توسعه بدون شک نیازمند قانونگذاری سریع، شفافسازی الگوریتمها، آموزش عمومی گسترده برای سواد رسانهای و پرسشگری مداوم از قدرتهای پشت پرده این فناوری است.
ما خالقان این فناوری هستیم، اما اگر هوشمندانه عمل نکنیم، به زودی به خالقینِ شرایطی تبدیل خواهیم شد که خودمان را از آن نجات دهیم. زمان آن رسیده است که نه تنها در مورد قدرت هوش مصنوعی هیجانزده باشیم، بلکه درباره آسیبپذیریهایش نیز کاملاً هوشیار باشیم.