هوش مصنوعی ۲۰۲۵: بین انقلاب و فاجعه، جان انسانها در خطر است!
هوش مصنوعی در سال ۲۰۲۵ مرز میان پیشرفت و خطر را کمرنگتر از همیشه کرده است؛ فناوریای که با الگوریتمهای پیشرفته جان هزاران بیمار را نجات میدهد، اما در سوی دیگر با تصادفهای مرگبار خودروهای خودران، آتشسوزی رباتاکسیها و خسارتهای میلیاردی، اعتماد عمومی را به چالش میکشد.

شامگاه یکی از روزهای بهاری سال ۲۰۱۸، خیابانهای ایالت آریزونای آمریکا آرام و خلوت بود، خودرویی خودران از خیابان عبور میکرد، بدون رانندهای پشت فرمان، اما با فردی که بهعنوان «راننده پشتیبان» موظف به نظارت بر عملکرد خودرو بود. او اما غرق تماشای فیلمی در تلفن همراه خود بود. لحظهای بعد، صدای ترمز و برخورد، سکوتی مرگبار را به خیابان تحمیل کرد، این حادثه به سرعت به تیتر نخست رسانههای جهان بدل شد: «اولین قربانی خودروی خودران».
این رویداد آغازگر موجی از پرسشها بود؛ اگر در آینده خودروها بهطور کامل بدون دخالت انسان حرکت کنند، در صورت وقوع چنین حوادثی چه کسی پاسخگو خواهد بود؟ آیا مقصر شرکت سازنده است؟ برنامهنویسان؟ یا خود هوش مصنوعی باید مسئول شناخته شود؟
فناوریای که زندگی را دگرگون کرده است
هوش مصنوعی تنها یک فناوری نوین نیست؛ بلکه انقلابی خاموش است که سبک زندگی بشر را به شکلی بنیادین تغییر داده است. این فناوری که روزگاری در قالب رباتهای خط تولید یا نرمافزارهای ساده تعریف میشد، امروز قادر است تصمیمگیری کند، احساسات انسان را تحلیل کند و حتی خلاقیت نشان دهد. از تشخیص دقیق بیماریها گرفته تا کنترل ترافیک شهری، از کمک به مأموریتهای فضایی تا حضور در هنر و سرگرمی، هوش مصنوعی توانسته مرزهای تواناییهای بشر را جابهجا کند. با این حال، همین پیشرفت خیرهکننده، هشداری جدی در خود نهفته دارد: هرچه بیشتر به این فناوری وابسته میشویم، ریسکهای آن پررنگتر میشود.
تهدیدهایی که نمیتوان نادیده گرفت
هوش مصنوعی، علاوه بر فرصتهای گسترده، خطرات متعددی را به همراه دارد که نمونه بارز آن در حادثه خودروی خودران آشکار شد. این تهدیدها طیف وسیعی را شامل میشوند:
- آسیبهای فیزیکی: از خودروهای خودران تا رباتهای صنعتی و تجهیزات پزشکی هوشمند، هر نقص نرمافزاری یا سختافزاری میتواند جان انسانها را به خطر اندازد.
- تأثیرات روانی: الگوریتمهای شبکههای اجتماعی با ایجاد اعتیاد دیجیتال و القای الگوهای رفتاری، سلامت روان میلیونها نفر را تهدید میکنند.
- چالشهای شغلی: هوش مصنوعی در بسیاری از صنایع، کارهای انسانی را جایگزین کرده و زمینه بیکاری گسترده را فراهم آورده است.
- تهدیدهای امنیتی: تولید محتوای جعلی یا حملات سایبری پیچیده با استفاده از AI، به ابزاری در دست مجرمان و حتی دولتها تبدیل شده است.
- مسائل اخلاقی: تصمیمگیریهای مبتنی بر داده، مانند قضاوت در دادگاه یا گزینش استخدامی، ممکن است دچار سوگیری و نابرابری شود.
در معدن اسکندیدا شیلی، دو کامیون بدون راننده در یک هفته دچار سانحه شدند؛ یکی واژگون و دیگری با ماشین تجهیزات برخورد کرد، گرچه کسی آسیبی ندید، اتحادیه کارگری هشدار داده که این حوادث «خطر بزرگی برای ایمنی کارگران» محسوب میشود؛ در چین، یک خودروی بدون راننده شرکت Pony.ai پس از توقف اضطراری در پی یک اشکال فنی، دچار آتشسوزی شد. خوشبختانه خودرویی بدون سرنشین بود و کسی آسیب ندید، کارشناسان ادعا میکنند که این حادثه ممکن است اعتماد عمومی نسبت به وسایل نقلیه خودران را بیشتر تحت تأثیر قرار دهد.
در ایالات متحده، در یک پرونده تاریخی، تسلا به دلیل تصادف مرگبار خودروی Autopilot در فلوریدا، ۳۳ درصد مسئول شناخته شده و به پرداخت ۲۴۳ میلیون دلار محکوم شد. اطلاعات مهمی که طرف مدعیات پنهان کرده بود، با دخالت یک هکر کشف شد، رویدادی که مسئولیتپذیری شرکتها را بار دیگر زیر ذرهبین برد، در چین نیز، به دنبال تصادف مرگبار یک خودرو با حالت خودران (Xiaomi SU7)، ناظران قصد دارند روند عرضه فناوریهای رانندگی خودکار در خودروها را کند کنند و استانداردهای جدیدی تدوین کند.
دادهها و روندها: بین امید و نگرانی
تا ۲۶ اوت ۲۰۲۵، شرکت Waymo دستکم ۴۶۴ حادثه مرتبط با خودروهایش را به NHTSA گزارش کرده که منجر به یک مرگ، یک آسیب جدی، دو آسیب متوسط و ۲۸ آسیب خفیف شده است، این در حالیست که مجموع گزارشها از سالهای ۲۰۲۱ تا ۲۰۲۴ به ۶۹۶ حادثه میرسد، همچنین در ماه آوریل ۲۰۲۵ میلادی، تعداد تصادفهای مربوط به خودروهای خودران به بالاترین حد رسیده و ۹۵ حادثه گزارش شده است که عدد قابل توجهی نسبت به میانگین ۷۷–۷۸ حادثه ماهانه در سه ماه اول سال است؛ علاوه بر این ستاد تصادفات وسایل خودران کالیفرنیا تا بیستودوم اوت ۲۰۲۵ بیش از ۸۵۲ گزارش تصادف دریافت کرده است، اعدادی که نشان میدهد مقیاس رشد این فناوری هر روز بزرگتر میشود. DigitalDefynd با گزارش اینکه بیش از ۱.۷ میلیون شغل در صنعت تولید طی یک دهه بهدلیل اتوماسیون AI از بین رفتهاند، به کاهش گسترده فرصتهای شغلی هشدار میدهد، همچنین سازمان OECD اعلام کرده است که گزارشهای مربوط به خطرها و حوادث AI از نوامبر ۲۰۲۲ به شدت افزایش یافته و اهمیت داشتن استانداردهای گزارشدهی منظم را دوچندان کرده است. یک بررسی دیگر نشان میدهد که استفاده از هوش مصنوعی در سازمانها از ۵۰٪ در سال ۲۰۲۲ به ۷۸ درصد تا جولای ۲۰۲۴ رسیده؛ همزمان با این رشد، حوادث و خطرهای AI نیز دو برابر شدهاند.
مسئولیتپذیری در عصر هوش مصنوعی
علی کمیلیپور، عضو هیئت علمی دانشگاه آزاد نجفآباد، مدیر گروه تکمیلی و عضو مرکز وکلای قوه قضائیه و کمیسیون آموزش مرکز اصفهان در گفتوگو با خبرنگار ایمنا اظهارکرد: من سالها در حوزه مالکیت فکری پژوهش و تألیف داشتهام، قانون مالکیت فکری ایران به طور سنتی تنها شخص حقیقی را به عنوان مخترع یا صاحب حق فکری به رسمیت میشناسد اما ظهور هوش مصنوعی موجب ایجاد خلأهای قانونی شده چرا که گاه اعمالی توسط هوش مصنوعی انجام میگیرد که مطابق قوانین کنونی قابل تعریف بحث مالکیت آن مطرح نیست.
وی ادامه داد: این خلأها موجب اتخاذ آرای متفاوت و گوناگون در کشورهای اروپایی شده و اکنون ضروری است قوانین مالکیت فکری در ایران همسو با پیشرفتهای فناوری هوش مصنوعی به روز و اصلاح شوند. دانشجویان و وکلای دادگستری در ایران شناخت کافی از مباحث مالکیت فکری و هوش مصنوعی ندارند و این ضعف آگاهی، مشکلات فراوانی را در عمل ایجاد میکند. هوش مصنوعی در هر صورت میتواند محتوایی را تولید و ارائه کند اما این پرسش کلیدی مطرح است که آیا این تولیدها نقض حقوق مالکیت فکری افراد دیگری است یا خیر؟
عضو هیئت علمی دانشگاه آزاد نجفآباد ضمن تأکید بر اهمیت آموزش در دو حوزه هوش مصنوعی و مالکیت فکری، اصلاح قوانین را گام دوم و ضروری عنوان کرد و گفت: با توضیح و توجه به کنوانسیونهای بینالمللی و اسناد مرتبط، باید همکاریهای بیشتری در حوزه ثبت اختراعات و حمایت از حقوق مالکیت فکری در جامعه بینالمللی صورت گیرد و موافقتنامه تریپس سازمان تجارت جهانی در اولویت قرار گیرد.
این پرسش اساسی مطرح است: در صورت بروز خطا یا خسارت ناشی از تصمیمات یک سیستم هوشمند، چه کسی مسئول است؟
- عدهای شرکتهای تولیدکننده را مسئول میدانند.
- برخی معتقدند کاربران باید آموزش ببینند و در استفاده صحیح از فناوری مسئولیت داشته باشند.
- گروهی دیگر بر تدوین قوانین و استانداردهای جهانی برای کنترل این فناوری تأکید دارند.
اتحادیه اروپا در سالهای اخیر گامهایی جدی در این زمینه برداشته و «قانون هوش مصنوعی» را برای تنظیم فعالیتهای شرکتها و توسعهدهندگان معرفی کرده است. با این حال، سرعت پیشرفت فناوری همچنان از سرعت قانونگذاری پیشی گرفته است.
راهکارهایی برای کاهش خطر
کارشناسان معتقدند باید از هماکنون اقداماتی جدی برای مدیریت هوش مصنوعی صورت گیرد:
- توسعه سیستمهای قابل توضیح (Explainable AI): الگوریتمهایی که نحوه تصمیمگیریشان برای انسانها شفاف باشد
- حضور انسان در چرخه تصمیمگیری: استفاده از رویکرد «انسان در حلقه» در حوزههای حساس مانند پزشکی و حملونقل
- آموزش و فرهنگسازی: ارتقای سطح دانش عمومی درباره فرصتها و تهدیدهای AI
- قانونگذاری جهانی: تدوین قوانین مشترک بینالمللی برای جلوگیری از سوءاستفاده از فناوری
- توسعه اخلاقیات هوش مصنوعی: طراحی الگوریتمهایی که اصول اخلاقی و ارزشهای انسانی را رعایت کنند
آیندهای در گرو تصمیمهای امروز
به گزارش ایمنا، آینده رابطه انسان با هوش مصنوعی میتواند همزیستانه و سازنده باشد یا به سناریویی تهدیدآمیز منجر شود، اگر امروز برای قانونگذاری، آموزش، اخلاق و نظارت سرمایهگذاری نکنیم، فردا ممکن است با فناوریای مواجه شویم که کنترل آن از دست ما خارج شده است، هوش مصنوعی هم میتواند ناجی تمدن بشر باشد و هم تهدیدی جدی برای آن و انتخاب مسیر این آینده، در گرو تصمیمهای آگاهانه امروز ما است.