Web Analytics Made Easy - Statcounter
به نقل از «ایمنا»
2024-05-02@11:15:07 GMT

چه کسی برنده تقابل میان انسان و ربات خواهد بود؟

تاریخ انتشار: ۱ آذر ۱۴۰۲ | کد خبر: ۳۹۱۳۸۹۹۳

چه کسی برنده تقابل میان انسان و ربات خواهد بود؟

داستان تهدیدات هوش مصنوعی برای تمدن بشری ریشه‌ای چندین ساله دارد؛ تقابل ربات‌های هوشمند انسان‌نما با بشر و درنهایت بردگی انسان تصویری است که این داستان از آینده جهان ترسیم کرده است.

به گزارش خبرگزاری ایمنا، هوش مصنوعی در تعاریف به معنای هوشی ظهور کرده توسط ماشین‌ها است، اما پیش از هر چیز باید این موضوع را دانست که کلمه هوش، نشان دهنده امکان استدلال است و اینکه آیا هوش مصنوعی می‌تواند به توانایی استدلال دست یابد یا خیر، یکی از اختلافات اصلی محققان است.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

کاربردهای هوش مصنوعی گسترده وسیعی دارد، از موتورهای جست‌وجو پیشرفته و سامانه‌های توصیه‌گر تا فهم زبان انسان‌ها و خودروهای خودران و یا رقابت در بالاترین سطوح سامانه بازی‌های استراتژیک و مهم‌تر از همه رباتیک، بخشی کوچک از کاربرد هوش مصنوعی هستند.

لازم به ذکر است هوش مصنوعی (AI) فناوری کاملاً جدید و یا موضوعی ناشناخته نیست و صحبت از آن به ده‌ها سال قبل برمی‌گردد، اما با گسترش این فناوری در سالیان اخیر سطح نگرانی‌های عمومی از خطرات احتمالی نیز گسترش یافت. بررسی خطرات هوش مصنوعی ضرورتی غیرقابل انکار است چرا که هوش مصنوعی با ورود به انواع و اقسام صنایع روزبه‌روز نقش مهم‌تری پیدا کرده‌است.

با پیشرفت شگفت‌انگیز هوش‌مصنوعی، این فناوری می‌تواند بسیاری از جنبه‌های زندگی را به طور معجزه آسایی بهبود ببخشد، اما از طرف دیگر نباید خطرات احتمالی آن را نادیده گرفت. برنامه‌ریزی شدن هوش مصنوعی برای انجام کارهای مخرب، اتوماسیون یا خودکارسازی مشاغل و در نهایت افزایش سرانه بیکاری، به خطر افتادن امنیت و حریم خصوصی و سلاح‌های خود مختار نگران کننده ترین خطرات هوش مصنوعی است که هشدارهای عمومی را برانگیخته است، اما آیا این خطرات واقعاً وجود دارد؟ اگر وجود دارد راه تقابل با آنها چیست؟

کشتی نجات هوش مصنوعی طوفانی می‌شود!

امیر محترمی، عضو هیأت علمی دانشگاه و کارشناس فناوری اطلاعات به خبرنگار ایمنا می‌گوید: داستان تهدیدات هوش‌مصنوعی برای تمدن بشری ریشه‌ای چندین ساله دارد به نحوی که این تهدیدات در بسیاری از رمان‌ها و فیلم‌های دهه ۶۰ منعکس شده است. تقابل ربات‌های هوشمند انسان‌نما با انسان و درنهایت بردگی انسان تصویری است که این اثرات هنری از آینده جهان ترسیم کردند، اما این خواست و هدف هوش مصنوعی نیست.

وی می‌افزاید: همه تکنولوژی‌ها ترسناک هستند و در ابتدا با مقاومت عموم مواجه می‌شوند. البته باید در نظر داشت برخی از خطرات احتمالی وهم انگیز هوش مصنوعی، ریشه در واقعیت داشته و باید به فکر چاره‌ای بنیادین برای آن بود، اما این چاره‌اندیشی باید در جهت کاهش حداکثری مضرات و افزایش منافع فناوری باشد و نباید اجازه داد ترس مانع رشد تکنولوژی شود.

این کارشناس فناوری اطلاعات اظهار می‌کند: امروزه هوش مصنوعی با ایجاد پدیده‌هایی که می‌توانند بعضاً با معضلات جدی برای جوامع انسانی همراه باشند زنگ خطر را به صدا درآورده است. از ساده‌ترین مسائل مانند به خطر افتادن امنیت اطلاعات و حریم خصوصی افراد گرفته تا تکنولوژی جعل عمیق اسناد و «دیپ‌فیک» خطراتی هستند که می‌توانند به راحتی آبروی افراد به ویژه چهره‌های ملی کشورها را به بازی بگیرند. جعل عمیق می‌تواند ساختارهای اعتماد جامعه بشری را کاملاً تخریب کرده و تبعات سیاسی و اجتماعی وسیعی را با خود همراه کند.

وی اذعان می‌کند: سلاح‌های خود مختار از دیگر مسائل نگران کننده در زمینه توسعه هوش مصنوعی است که نظریه ناتوانی در کنترل ربات‌های قاتل را بیان می‌کند. این ربات‌ها از احساسات برخوردار نیستند و این به معنای این است که در مواجه با پدیده‌های انسانی طبق دستوری که گرفته‌اند عمل می‌کنند و تصمیمات آن‌ها تحت تأثیر احساسات قرار نمی‌گیرد.

محترمی تاکید می‌کند: ایلان ماسک در مصاحبه اخیر خود ادعا کرده است که هوش مصنوعی در آینده انسان‌ها را کاملاً بیکار و در نهایت خانه نشین خواهد کرد که این نیز از دیگر خطرات هوش مصنوعی است، اما نباید فراموش کرد که اساس و بنیان تکنولوژی بر پایه جبران است و اگر بعضی از مشاغل را خالی از وجود بشر می‌کند در جای دیگری برای انسان جای باز کرده و اشتغال آفرینی خواهد کرد.

وی می‌افزاید: انسان بدون وقفه در حال حرکت است و هوش مصنوعی نمی‌تواند از این حرکت جلوگیری کند، توسعه تکنولوژی صرفاً به معنای کاهش فعالیت‌های فیزیکی و بازو محور انسان و افزایش فعالیت‌های ذهنی، مفهومی و حتی تفریحی است به همین جهت نمی‌توان آینده هوش مصنوعی را به صورت قاتلی برای اشتغال انسان به تصویر کشید.

این عضو هیئت علمی دانشگاه در پایان متذکر می‌شود: نقش اول تصورات نگران کننده از آینده بشر، خطراتی هستند که در زمان وقوع چاره آنها قابل اندیشیدن است به علاوه بشر هیچگاه به استثمار هوش مصنوعی در نخواهد آمد چراکه سیستم‌های کنترل‌گر ربات‌ها نیز به موازات رشد و شکل‌گیری ماشین‌های انسان نما پیشرفت خواهند کرد؛ لازم به ذکر است امروزه نیز در سازمان ملل و مجامع عمومی وضع قوانین متعدد در راستای هوش مصنوعی و محدودیت دسترسی‌ها با هدف جلوگیری از عواقب اخلاقی این تکنولوژی مورد بحث قرار گرفته است.

ترس از خطر خود یک خطر است

به گزارش ایمنا، با پیشرفت هوش مصنوعی، کاربردهای این فناوری نیز بیشتر خواهد شد، اما متأسفانه یک تکنولوژی جدید قدرتمند همواره در معرض خطر سوء استفاده قرار دارد. خطراتی که می‌توانند تمام جنبه‌های زندگی روزمره ما را تحت تأثیر قرار دهند، از حریم خصوصی و امنیت سیاسی گرفته تا اتوماسیون شغل‌ها با این حال نباید اجازه داد ترس بیش از اندازه از این خطرات مانع پیشرفت فناوری‌ها شود.

ترس زمانی خوب است که دقت و کیفیت کار را افزایش دهد، اما اگر تبدیل به عاملی بازدارنده شود نه تنها کمکی به دفع خطرات نکرده بلکه خود نیز تبدیل به خطری بزرگ خواهد شد. توجه به خطرات هوش مصنوعی و یافتن راهی جهت مقابله با آن‌ها در کنار گسترش این فناوری ضروری، مهم و غیر قابل انکار است و باید جدی گرفته شود.

کد خبر 706061

منبع: ایمنا

کلیدواژه: هوش مصنوعی کاربرد هوش مصنوعی ارتقای هوش مصنوعی خطرات هوش مصنوعی ایلان ماسک رباتیک ربات های انسان نما شهر شهروند کلانشهر مدیریت شهری کلانشهرهای جهان حقوق شهروندی نشاط اجتماعی فرهنگ شهروندی توسعه پایدار حکمرانی خوب اداره ارزان شهر شهرداری شهر خلاق خطرات هوش مصنوعی ربات ها

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.imna.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «ایمنا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۹۱۳۸۹۹۳ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

هوش مصنوعی بی طرف نیست ؛ چشم بسته در جنگ شلیک می کند

همشهری آنلاین - گروه سیاسی: هشدارهای بین‌المللی نسبت به استفاده از تبعات هوش مصنوعی در جنگ‌افزارها و میدان‌های نبرد رو به افزایش است. تلفات دسته‌جمعی استفاده از این فناوری در سلاح‌ها به همراه خطای غیر قابل چشم‌پوشی آن در کشتار غیرنظامیان بیش از هر چیز در این گزارش‌ها محل توجه است. فایننشال تایمز در گزارشی به همین موضوع پرداخته است.

در بخش‌هایی از این گزارش آمده است:

دولت های غربی برای راه اندازی مؤسسه های ایمنی هوش مصنوعی با یکدیگر رقابت می‌کنند. بریتانیا، ایالات متحده، ژاپن و کانادا همگی چنین ابتکاراتی را اعلام کرده‌اند، در حالی که وزارت امنیت داخلی ایالات متحده هفته گذشته یک هیئت ایمنی و امنیت هوش مصنوعی را به این ترکیب اضافه کرد.

با وجود این تاکید شدید بر لزوم ایمنی استفاده از هوش مصنوعی در حملات نظامی، هیچ یک از این بخش‌ها استفاده نظامی از هوش مصنوعی را کنترل نمی‌کنند. این در حالی است که میدان نبرد امروز، پتانسیل واضح خطرات ایمنی هوش مصنوعی را نشان می‌دهد.

با توجه به این تاکید شدید بر ایمنی، قابل توجه است که هیچ یک از این ارگان ها استفاده نظامی از هوش مصنوعی را کنترل نمی کنند. در همین حال، میدان نبرد امروزی در حال حاضر پتانسیل خطرات ایمنی واضح هوش مصنوعی را نشان می‌دهد.

بر اساس تحقیقات اخیر یک مجله اسرائیلی، نیروهای دفاعی اسرائیل از یک برنامه مجهز به هوش مصنوعی به نام لاوندر برای نشان‌گذاری اهداف خود در حملات پهپادی استفاده می‌کنند. این سیستم، داده‌ها و منابع اطلاعاتی را برای شناسایی شبه‌نظامیان مظنون ترکیب می‌کند. ظاهرا این برنامه ده‌ها هزار هدف را شناسایی کرده و بمب‌های پرتاب شده در غزه منجر به تلفات و خسارات زیادی شد. ارتش اسرائیل چندین بخش از این گزارش را رد می‌کند.

اهداف برای حملات پهپادی استفاده کرده اند. این سیستم داده ها و منابع اطلاعاتی را برای شناسایی شبه نظامیان مظنون ترکیب می کند. ظاهراً این برنامه ده‌ها هزار هدف را شناسایی کرد و بمب‌های پرتاب شده در غزه منجر به تلفات و خسارات جانبی بیش از حد شد. ارتش اسرائیل چندین جنبه از این گزارش را رد می کند.

سرمایه‌گذاران خطرپذیر بازار تکنولوژی دفاعی را تقویت می‌کنند. شرکت‌های فناوری مشتاق هستند که بخشی از این رونق اخیر باشند و خیلی سریع مزایای هوش مصنوعی را در میدان نبرد بفروشند.

گزارش شده است که مایکروسافت ابزار هوش مصنوعی دالی را در اختیار ارتش ایالات متحده قرار داده است، همچنین شرکت جنجالی تشخیص چهره هوش مصنوعی کلیرویو بابت کمک به اوکراین در شناسایی سربازان روسی با فناوری خود افتخار می‌کند. شرکت اندوریل هم سیستم‌های خودکار می‌سازد و شرکت هوش مصنوعی شیلد پهپادهای مجهز به هوش مصنوعی را توسعه می‌دهد. این دو شرکت در اولین دور سرمایه‌گذاری خود صدها میلیون دلار به دست آورده‌اند.

این دولت‌ها هستند که اجازه می‌دهند بخش تکنولوژی دفاعی از نظارت آنها فرار کند. قانون مهم هوش مصنوعی اتحادیه اروپا در مورد سیستم‌های هوش مصنوعی که «به‌طور انحصاری برای اهداف نظامی، دفاعی یا امنیت ملی هستند» اعمال نمی‌شود.

در همین حال فرمان اجرایی کاخ سفید در مورد هوش مصنوعی دارای نکات مهمی برای هوش مصنوعی نظامی بود (اگرچه وزارت دفاع دستورالعمل‌های داخلی دارد). به‌عنوان مثال اجرای بسیاری از دستورات اجرایی کاخ سفید «هنگامی که هوش مصنوعی به‌عنوان جزئی از یک سیستم امنیت ملی استفاده می‌شود» مشمول نیست. و کنگره هیچ اقدامی برای تنظیم استفاده نظامی از این فناوری انجام نداده است.

این امر باعث می‌شود که دو بلوک اصلی دموکراتیک جهان هیچ قانون الزام‌آور جدیدی در مورد نوع سیستم‌های هوش مصنوعی که ارتش و سرویس‌های اطلاعاتی می‌توانند استفاده کنند، نداشته باشند. بنابراین آنها فاقد اقتدار اخلاقی برای تشویق سایر کشورها به استفاده از هوش مصنوعی در ارتش‌های خود هستند. اعلامیه سیاسی اخیر در مورد «استفاده مسئولانه نظامی از هوش مصنوعی و خودکار» بودن آنها که از سوی تعدادی از کشورها حمایت شد، چیزی بیش از یک اعلامیه نیست.

این سوال مطرح است که بحث‌های سیاسی در مورد ایمنی هوش مصنوعی در صورتی که کاربردهای نظامی این فناوری را پوشش ندهد، چقدر معنادار است؟ به‌رغم نقص شواهد مبنی بر اینکه سلاح‌های مجهز به هوش مصنوعی می‌توانند با قوانین بین‌المللی در مورد تمایز و تناسب در میدان جنگ مطابقت داشته باشد، آنها در سراسر جهان فروخته می‌شوند. از آنجایی که برخی از فناوری‌ها دارای کاربرد دوگانه هستند، خطوط میان کاربردهای نظامی و غیرنظامی در حال محو شدن هستند.

تصمیم برای قاعده‌مند نکردن استفاده نظامی از هوش مصنوعی هزینه انسانی دارد. صرف‌نظر از اینکه هوش مصنوعی به‌طور سیستماتیک دقیق است یا خیر، اغلب به سیستم‌های هوش مصنوعی در زمینه‌های نظامی اطمینان بی‌مورد داده می‌شود، زیر به اشتباه بی‌طرف تلقی می‌شوند.

هوش مصنوعی می‌تواند به تصمیم‌گیری سریع‌تر نظامی کند کند، اما همچنین می‌تواند مستعد خطا باشد و اساسا ممکن است هوش مصنوعی به قوانین بشردوستانه بین‌المللی پایبند نباشد. کنترل انسانی بر عملیات در پاسخگو نگه داشتن قانونی بازیگران نبرد بسیار مهم است.

سازمان ملل تلاش کرده این خلا را پر کند. آنتونیو گوترش دبیرکل سازمان ملل برای اولین بار در سال ۲۰۱۸ خواستار ممنوعیت سلاح‌های خودکار شد و آنها را از نظر اخلاقی منفور توصیف کرد. بیش از ۱۰۰ کشور علاقه‌مند به مذاکره و تصویب قوانین بین‌المللی جدید برای منع و محدود کردن سیستم‌های تسلیحاتی خودکار هستند، اما روسیه، آمریکا، بریتانیا و اسرائیل با یک پیشنهاد الزام‌آور مخالفت کرده‌اند که باعث شکست مذاکرات شده است.

اگر کشورها برای محافظت از غیرنظامیان در استفاده نظامی از هوش مصنوعی اقدامی نکنند، نظام بین المللی مبتنی بر قوانین باید تقویت شود.

نهاد مشورتی سطح عالی دبیرکل سازمان ملل در استفاده از هوش مصنوعی یکی از گروه‌هایی است که می‌تواند ممنوعیت استفاده‌های مخاطره‌آمیز از هوش مصنوعی نظامی را توصیه کند، اما رهبری سیاسی برای اطمینان از رعایت قوانین حیاتی است.

اطمینان از ادامه استانداردهای حقوق بشری و قوانین درگیری‌های مسلحانه برای محافظت از غیرنظامیان در عصر جدید جنگ بسیار مهم است. استفاده بی رویه از هوش مصنوعی در میدان نبرد نمی تواند ادامه یابد.

کد خبر 848813 برچسب‌ها هواپیما - پهپاد خبر ویژه هوش‌ مصنوعی

دیگر خبرها

  • مغز انسان شبیه‌سازی شد
  • مغز انسان به شکلی بی‌نظیر شبیه‌سازی شد
  • دستیار هوشمند خانگی/ هوش مصنوعی چگونه به خانه‌داری کمک می‌کند؟
  • هوش مصنوعی بی طرف نیست ؛ چشم بسته در جنگ شلیک می کند
  • (ویدئو) خلاصه بازی بایرن مونیخ ۲ - ۲ رئال مادرید؛ نبرد مونیخ برنده نداشت
  • ربات‌های قاتل؛ ترس از آینده هوش مصنوعی
  • وضع مقررات برای استفاده تسلیحاتی از هوش مصنوعی
  • ساخت نخستین سلول مغزی مصنوعی با آب و نمک 
  • ببینید l بازدید میلیونی زمین خوردن یک ربات/ انسان‌نماها زمین خوردن را تمرین می‌کنند؟
  • چین از مدل هوش مصنوعی تبدیل متن به ویدئو رونمایی کرد