هوش مصنوعی ۲۰۲۵: بین انقلاب و فاجعه، جان انسان‌ها در خطر است!

هوش مصنوعی در سال ۲۰۲۵ مرز میان پیشرفت و خطر را کم‌رنگ‌تر از همیشه کرده است؛ فناوری‌ای که با الگوریتم‌های پیشرفته جان هزاران بیمار را نجات می‌دهد، اما در سوی دیگر با تصادف‌های مرگبار خودروهای خودران، آتش‌سوزی رباتاکسی‌ها و خسارت‌های میلیاردی، اعتماد عمومی را به چالش می‌کشد.

هوش مصنوعی ۲۰۲۵: بین انقلاب و فاجعه، جان انسان‌ها در خطر است!

شامگاه یکی از روزهای بهاری سال ۲۰۱۸، خیابان‌های ایالت آریزونای آمریکا آرام و خلوت بود، خودرویی خودران از خیابان عبور می‌کرد، بدون راننده‌ای پشت فرمان، اما با فردی که به‌عنوان «راننده پشتیبان» موظف به نظارت بر عملکرد خودرو بود. او اما غرق تماشای فیلمی در تلفن همراه خود بود. لحظه‌ای بعد، صدای ترمز و برخورد، سکوتی مرگبار را به خیابان تحمیل کرد، این حادثه به سرعت به تیتر نخست رسانه‌های جهان بدل شد: «اولین قربانی خودروی خودران».

این رویداد آغازگر موجی از پرسش‌ها بود؛ اگر در آینده خودروها به‌طور کامل بدون دخالت انسان حرکت کنند، در صورت وقوع چنین حوادثی چه کسی پاسخگو خواهد بود؟ آیا مقصر شرکت سازنده است؟ برنامه‌نویسان؟ یا خود هوش مصنوعی باید مسئول شناخته شود؟

ایتنا - آیا توسعه هوش مصنوعی در سال ۲۰۲۵ کُند می‌شود؟

فناوری‌ای که زندگی را دگرگون کرده است

هوش مصنوعی تنها یک فناوری نوین نیست؛ بلکه انقلابی خاموش است که سبک زندگی بشر را به شکلی بنیادین تغییر داده است. این فناوری که روزگاری در قالب ربات‌های خط تولید یا نرم‌افزارهای ساده تعریف می‌شد، امروز قادر است تصمیم‌گیری کند، احساسات انسان را تحلیل کند و حتی خلاقیت نشان دهد. از تشخیص دقیق بیماری‌ها گرفته تا کنترل ترافیک شهری، از کمک به مأموریت‌های فضایی تا حضور در هنر و سرگرمی، هوش مصنوعی توانسته مرزهای توانایی‌های بشر را جابه‌جا کند. با این حال، همین پیشرفت خیره‌کننده، هشداری جدی در خود نهفته دارد: هرچه بیشتر به این فناوری وابسته می‌شویم، ریسک‌های آن پررنگ‌تر می‌شود.

تهدیدهایی که نمی‌توان نادیده گرفت

هوش مصنوعی، علاوه بر فرصت‌های گسترده، خطرات متعددی را به همراه دارد که نمونه بارز آن در حادثه خودروی خودران آشکار شد. این تهدیدها طیف وسیعی را شامل می‌شوند:

  • آسیب‌های فیزیکی: از خودروهای خودران تا ربات‌های صنعتی و تجهیزات پزشکی هوشمند، هر نقص نرم‌افزاری یا سخت‌افزاری می‌تواند جان انسان‌ها را به خطر اندازد.
  • تأثیرات روانی: الگوریتم‌های شبکه‌های اجتماعی با ایجاد اعتیاد دیجیتال و القای الگوهای رفتاری، سلامت روان میلیون‌ها نفر را تهدید می‌کنند.
  • چالش‌های شغلی: هوش مصنوعی در بسیاری از صنایع، کارهای انسانی را جایگزین کرده و زمینه بیکاری گسترده را فراهم آورده است.
  • تهدیدهای امنیتی: تولید محتوای جعلی یا حملات سایبری پیچیده با استفاده از AI، به ابزاری در دست مجرمان و حتی دولت‌ها تبدیل شده است.
  • مسائل اخلاقی: تصمیم‌گیری‌های مبتنی بر داده، مانند قضاوت در دادگاه یا گزینش استخدامی، ممکن است دچار سوگیری و نابرابری شود.

انقلاب هوش مصنوعی | دستاورد ها و تهدیدها برای بشر |هفته‌نامه شنبه

در معدن اسکندیدا شیلی، دو کامیون بدون راننده در یک هفته دچار سانحه شدند؛ یکی واژگون و دیگری با ماشین تجهیزات برخورد کرد، گرچه کسی آسیبی ندید، اتحادیه کارگری هشدار داده که این حوادث «خطر بزرگی برای ایمنی کارگران» محسوب می‌شود؛ در چین، یک خودروی بدون راننده شرکت Pony.ai پس از توقف اضطراری در پی یک اشکال فنی، دچار آتش‌سوزی شد. خوشبختانه خودرویی بدون سرنشین بود و کسی آسیب ندید، کارشناسان ادعا می‌کنند که این حادثه ممکن است اعتماد عمومی نسبت به وسایل نقلیه خودران را بیشتر تحت تأثیر قرار دهد.

در ایالات متحده، در یک پرونده تاریخی، تسلا به دلیل تصادف مرگبار خودروی Autopilot در فلوریدا، ۳۳ درصد مسئول شناخته شده و به پرداخت ۲۴۳ میلیون دلار محکوم شد. اطلاعات مهمی که طرف مدعیات پنهان کرده بود، با دخالت یک هکر کشف شد، رویدادی که مسئولیت‌پذیری شرکت‌ها را بار دیگر زیر ذره‌بین برد، در چین نیز، به دنبال تصادف مرگبار یک خودرو با حالت خودران (Xiaomi SU7)، ناظران قصد دارند روند عرضه فناوری‌های رانندگی خودکار در خودروها را کند کنند و استانداردهای جدیدی تدوین کند.

داده‌ها و روندها: بین امید و نگرانی

تا ۲۶ اوت ۲۰۲۵، شرکت Waymo دست‌کم ۴۶۴ حادثه مرتبط با خودروهایش را به NHTSA گزارش کرده که منجر به یک مرگ، یک آسیب جدی، دو آسیب متوسط و ۲۸ آسیب خفیف شده است، این در حالی‌ست که مجموع گزارش‌ها از سال‌های ۲۰۲۱ تا ۲۰۲۴ به ۶۹۶ حادثه می‌رسد، همچنین در ماه آوریل ۲۰۲۵ میلادی، تعداد تصادف‌های مربوط به خودروهای خودران به بالاترین حد رسیده و ۹۵ حادثه گزارش شده است که عدد قابل توجهی نسبت به میانگین ۷۷–۷۸ حادثه ماهانه در سه ماه اول سال است؛ علاوه بر این ستاد تصادفات وسایل خودران کالیفرنیا تا بیست‌ودوم اوت ۲۰۲۵ بیش از ۸۵۲ گزارش تصادف دریافت کرده است، اعدادی که نشان می‌دهد مقیاس رشد این فناوری هر روز بزرگ‌تر می‌شود. DigitalDefynd با گزارش اینکه بیش از ۱.۷ میلیون شغل در صنعت تولید طی یک دهه به‌دلیل اتوماسیون AI از بین رفته‌اند، به کاهش گسترده فرصت‌های شغلی هشدار می‌دهد، همچنین سازمان OECD اعلام کرده است که گزارش‌های مربوط به خطرها و حوادث AI از نوامبر ۲۰۲۲ به شدت افزایش یافته و اهمیت داشتن استانداردهای گزارش‌دهی منظم را دوچندان کرده است. یک بررسی دیگر نشان می‌دهد که استفاده از هوش مصنوعی در سازمان‌ها از ۵۰٪ در سال ۲۰۲۲ به ۷۸ درصد تا جولای ۲۰۲۴ رسیده؛ هم‌زمان با این رشد، حوادث و خطرهای AI نیز دو برابر شده‌اند.

رونق هوش مصنوعی مولد در ۲۰۲۴

مسئولیت‌پذیری در عصر هوش مصنوعی

علی کمیلی‌پور، عضو هیئت علمی دانشگاه آزاد نجف‌آباد، مدیر گروه تکمیلی و عضو مرکز وکلای قوه قضائیه و کمیسیون آموزش مرکز اصفهان در گفت‌وگو با خبرنگار ایمنا اظهارکرد: من سال‌ها در حوزه مالکیت فکری پژوهش و تألیف داشته‌ام، قانون مالکیت فکری ایران به طور سنتی تنها شخص حقیقی را به عنوان مخترع یا صاحب حق فکری به رسمیت می‌شناسد اما ظهور هوش مصنوعی موجب ایجاد خلأهای قانونی شده چرا که گاه اعمالی توسط هوش مصنوعی انجام می‌گیرد که مطابق قوانین کنونی قابل تعریف بحث مالکیت آن مطرح نیست.

وی ادامه داد: این خلأها موجب اتخاذ آرای متفاوت و گوناگون در کشورهای اروپایی شده و اکنون ضروری است قوانین مالکیت فکری در ایران همسو با پیشرفت‌های فناوری هوش مصنوعی به روز و اصلاح شوند. دانشجویان و وکلای دادگستری در ایران شناخت کافی از مباحث مالکیت فکری و هوش مصنوعی ندارند و این ضعف آگاهی، مشکلات فراوانی را در عمل ایجاد می‌کند. هوش مصنوعی در هر صورت می‌تواند محتوایی را تولید و ارائه کند اما این پرسش کلیدی مطرح است که آیا این تولیدها نقض حقوق مالکیت فکری افراد دیگری است یا خیر؟

عضو هیئت علمی دانشگاه آزاد نجف‌آباد ضمن تأکید بر اهمیت آموزش در دو حوزه هوش مصنوعی و مالکیت فکری، اصلاح قوانین را گام دوم و ضروری عنوان کرد و گفت: با توضیح و توجه به کنوانسیون‌های بین‌المللی و اسناد مرتبط، باید همکاری‌های بیشتری در حوزه ثبت اختراعات و حمایت از حقوق مالکیت فکری در جامعه بین‌المللی صورت گیرد و موافقت‌نامه تریپس سازمان تجارت جهانی در اولویت قرار گیرد.

این پرسش اساسی مطرح است: در صورت بروز خطا یا خسارت ناشی از تصمیمات یک سیستم هوشمند، چه کسی مسئول است؟

  • عده‌ای شرکت‌های تولیدکننده را مسئول می‌دانند.
  • برخی معتقدند کاربران باید آموزش ببینند و در استفاده صحیح از فناوری مسئولیت داشته باشند.
  • گروهی دیگر بر تدوین قوانین و استانداردهای جهانی برای کنترل این فناوری تأکید دارند.

اتحادیه اروپا در سال‌های اخیر گام‌هایی جدی در این زمینه برداشته و «قانون هوش مصنوعی» را برای تنظیم فعالیت‌های شرکت‌ها و توسعه‌دهندگان معرفی کرده است. با این حال، سرعت پیشرفت فناوری همچنان از سرعت قانون‌گذاری پیشی گرفته است.

کاربرد هوش مصنوعی در طراحی سایت - پونه مدیا

راهکارهایی برای کاهش خطر

کارشناسان معتقدند باید از هم‌اکنون اقداماتی جدی برای مدیریت هوش مصنوعی صورت گیرد:

  • توسعه سیستم‌های قابل توضیح (Explainable AI): الگوریتم‌هایی که نحوه تصمیم‌گیری‌شان برای انسان‌ها شفاف باشد
  • حضور انسان در چرخه تصمیم‌گیری: استفاده از رویکرد «انسان در حلقه» در حوزه‌های حساس مانند پزشکی و حمل‌ونقل
  • آموزش و فرهنگ‌سازی: ارتقای سطح دانش عمومی درباره فرصت‌ها و تهدیدهای AI
  • قانون‌گذاری جهانی: تدوین قوانین مشترک بین‌المللی برای جلوگیری از سوءاستفاده از فناوری
  • توسعه اخلاقیات هوش مصنوعی: طراحی الگوریتم‌هایی که اصول اخلاقی و ارزش‌های انسانی را رعایت کنند

آینده‌ای در گرو تصمیم‌های امروز

به گزارش ایمنا، آینده رابطه انسان با هوش مصنوعی می‌تواند همزیستانه و سازنده باشد یا به سناریویی تهدیدآمیز منجر شود، اگر امروز برای قانون‌گذاری، آموزش، اخلاق و نظارت سرمایه‌گذاری نکنیم، فردا ممکن است با فناوری‌ای مواجه شویم که کنترل آن از دست ما خارج شده است، هوش مصنوعی هم می‌تواند ناجی تمدن بشر باشد و هم تهدیدی جدی برای آن و انتخاب مسیر این آینده، در گرو تصمیم‌های آگاهانه امروز ما است.