رفتن به مطلب

ترس از هوش مصنوعی


ارسال های توصیه شده

آیا هشدار ایلان ماسک و استیون هاوکینگ راجع به تسلط قریب‌الوقوع هوش مصنوعی بر بشریت به حقیقت می‌پیوندد؟ در حالی که هوش مصنوعی به دانشمندان کمک کرده است تا دنیا را به جای بهتری برای زندگی تبدیل کنند اما اخیرا تحقیقات نشان داده است که پیشرفته‌ترین نوع هوش مصنوعی در برخی موارد از دستورالعمل‌های برنامه‌ریزی شده پیروی نمی‌کند و تحت اختیار و تصمیم خود عمل می‌کند!

iva4u8sfkkxsp5rzk32.jpg

 

پیشرفته‌ترین هوش مصنوعی، “یادگیری عمیق” است. یادگیری ژرف روشی است که دانشمندان با تزریق انواع مختلفی از داده‌ها ربات‌ها را برای تصمیم‌گیری، حل مسایل و مشکلات و دیگر کارها براساس این داده‌ها مهیا می‌سازند. لازم به ذکر است که دانشمندان تنها وظیفه تزریق داده‌ها و آموزش ربات‌ها را برعهده دارند و ربات‌ها با توجه به انواع مختلف داده‌های تزریقی به طور مستقل تصمیم‌گیری می‌کنند.

 

یادگیری عمیق می‌تواند روش بسیار موثری باشد، چرا که برای مثال می‌تواند بیماری‌های مهلک را به موقع تشخیص داده یا با توجه به شرایط بازار تصمیمات پر سود میلیون دلاری بگیرد. هوش مصنوعی از چنان پیشرفتی برخوردار شده است که حتی در حال حاضر در برخی موارد دانشمندان نمی‌دانند که هوش مصنوعی چگونه عمل می‌کند!

7alse1v6ivs58gn7n0m.jpg

 

برای مثال در بیمارستان “ماونت سینای”( نیویورک یک الگوریتم هوش مصنوعی برای تشخیص بیماری مراجعین به کار گرفته شد و این برنامه بیماری همه مراجعین را به درستی تشخیص داد. این برنامه حتی شیزوفرنی را نیز به درستی تشخیص داد. به گواه پزشکان تشخیص بیماری شیزوفرنی بسیار سخت و مشکل است. جوئل دادلی سرپرست گروه تحقیقاتی بیمارستان “مونت سینای”(mount sinai) عنوان کرد که گروهش می‌تواند مدل‌های پیشرفته‌تری نیز بسازد، اما هیچ تصوری از اینکه چگونه کار می‌کند ندارند!

 

هوش مصنوعی به سرعت در حال رشد و پیشرفت است به طوری که قدرتمندترین و پیشرفته‌ترین ربات‌ها اکنون دیگر به دستوراتی که از انسان‌ها می‌گیرند وابسته نیستند و در عوض براساس اطلاعات تزریقی الگوریتم خاص خود را می‌سازند و طبق آن عمل می‌کنند. در واقع به طور خلاصه، ربات‌ها خودشان را برنامه‌ریزی می‌کنند! به همین دلایل این ترس جدی وجود دارد که اگر ربات‌ها دچار اشتباه شوند چه کسی پاسخگو خواهد بود و دانشمندان چگونه می‌توانند چیزی را که خودشان نمی‌دانند به چه صورت عمل می‌کند توضیح دهند؟

 

منبع: بیگ بنگ

لینک به دیدگاه
  • 1 ماه بعد...

ایلان ماسک هوش مصنوعی را خطرناک‌تر از تهدید کره شمالی می‌داند!

 

ایلان ماسک جمعه شب در توییتی عنوان کرد که باید نگران هوش مصنوعی باشیم؛‌ چرا که خطر آن به مراتب بیشتر از تهدید کره شمالی است.

0le9t0m8xih4tlwcjtv1.jpg

 

ایلان ماسک ، میلیاردر نابغه‌ای که تونی استارک دنیای واقعی لقب گرفته است، همواره درباره خطرات هوشی مصنوعی برای بشریت هشدار می‌دهد!‌ اما دلیلش چیست؟ ماسک جمعه شب گذشته در تویتر خود درباره هوش مصنوعی هشدار داد و آن را با تهدید کره شمالی مقایسه کرد. متن توییت وی به شرح زیر است:

 

باید نگران امنیت هوش مصنوعی باشید. خطر این پدیده بسیار بیشتر از تهدید کره شمالی است.

 

ماسک این تویت را درحال منتشر کرد که هوش مصنوعی توسعه یافته بدست استارت‌آپ 1 میلیارد دلاری خود موسوم به OpenAI،‌ همان شب حضوری شگفت انگیز در مسابقه بازی کامپیوتری Dota 2 با جایزه 24 میلیون دلاری یافت و موفق به شکست بهترین بازیکنان Dota 2 در جهان شد.

 

ایلان ماسک مدعی است که هوش مصنوعی ساخته شده بدست OpenAI اولین هوش مصنوعی است که موفق به شکست بهترین بازیکنان بازی‌های ویدیویی شده است. وی همچنین متذکر شد که خطر افزایش شمار هوش مصنوعی‌های قدرتمند همچون بات ساخته شده بدست OpenAI می‌تواند در نهایت برای امنیت انسان‌ها خطرناک باشد. ناگفته نماند بات OpenAI مهارت خود را از راه بازی کردن با خود بدست آورده است؛ این بات می‌تواند همزمان هزاران بازی در مقابل خود انجام دهد با کسب تجربه از این بازی‌ها،‌ بر توان خود بیافزاید.

slpolac1ej1j4pq1dasq.jpg

 

ماسک در تویتی دیگر که همان شب نوشت نیز می‌گوید:

 

هیچ کس دوست ندارد کنترل شود. اما هرآنچه که برای جامعه خطرناک (همچون داروها، خودروها و…) است،‌ همگی کنترل می‌شوند. هوش مصنوعی نیز باید چنین باشد.

 

وی پیشتر نیز درباره بی اعتمادی به هوش مصنوعی ابراز نگرانی کرده بود. مدیر عامل تسلا و اسپیس‌ایکس در سال 2016 هشدار داد در صوتی که هوش مصنوعی را بدون نظارت و کنترل رها کنیم،‌ با توجه به افزایش شمار و قدرت ابرکامپیوترهای قدرتمند ممکن است انسان‌ها تبدیل به حیوانات خانگی برای آن‌ها شوند؛ به این معنی که آن‌ها بر ما غلبه کنند! البته ایلان ماسک درحالی این قیاس را بیان می‌کند که خود از فرضیه پردازانی است که باور دارد انسان‌ها به یک لایه هوش دیجیتال، که از سوی ماسک «توری عصبی» نام گرفته، نیاز دارند.

 

او در کنفرانسی که سال 2016 در کالیفرنیای جنوبی برگزار شد اظهار داشت:

 

گمان می‌کنم افزودن یک لایه هوش دیجیتال یکی از بهترین راهکارها باشد. یک لایه سوم هوش دیجیتالی با عملکرد مناسب و همزیستی با دیگر اجزای بدن انسان.

 

گرچه همان موقع نیز ماسک بیان کرد:

 

اگر موفق به ساخت یک رابط با پهنای باند بالا بین سیستم عصبی و زندگی دیجیتال شما شویم، دیگر یک گربه خانگی نخواهید بود.

 

البته ناگفته نماند متخصصان علوم نانو مدتی است که مشغول کار روی این طرح هستند.

 

منبع: گجت نیوز

لینک به دیدگاه
  • 9 ماه بعد...

هوش مصنوعی تا سال 2040 یک جنگ اتمی ویرانگر را به راه می‌اندازد!

 

جنگ اتمی موضوع مقاله‌ای است که به تازگی توسط کارشناسان مسائل امنیتی تهیه شده و در آن احتمال اینکه تکنولوژی هوش مصنوعی (AI) تا سال 2040 یک جنگ جهانی عظیم را برای نابودی بشر راه بیاندازد،‌ مطرح شده است.

 

 

جنگ اتمی هم به تهدیدهای بالقوه فناوری جنجال‌برانگیز هوش مصنوعی (AI) اضافه شد؛ به تازگی متخصصان در قالب یک پژوهش هشدار داده‌اند که ممکن است تکنولوژی هوش مصنوعی تا 20 سال آینده با یک جنگ هسته ای بزرگ نسل ما را به کلی از بین ببرد و بشر هم به احتمال قوی توانایی متوقف کردن این فاجعه را نخواهد داشت.

 

giw45t6a2eei37ux5no.jpg

 

هوش مصنوعی و جنگ اتمی

در ابتدا موضوعی مربوط به دوران جنگ سرد و مسابقه تسلیحاتی ابرقدرت‌های جهان را مورد توجه قرار می‌دهیم؛ در آن زمان یک دکترین سیاسی به نام «تخریب حتمی متقابل» (MAD) در جریان بود که طرفین درگیری را از به‌کارگیری سلاح های هسته ای منع می‌کرد و بر این اساس که حمله اتمی به یک کشور، اقدام متقابل آن کشور را به دنبال دارد و باعث نابودی کامل هر دو طرف می‌شود، صلحی جهانی بین آمریکا و روسیه در جریان بود.

 

این استراتژی ترسناک و دلهره‌آور در حفظ صلح در آن دوران تاثیرگذار بود و از نابودی کامل و یا جزئی نسل بشر جلوگیری کرد، اما نکته اینجاست که دهه‌ها از زمان جنگ سرد گذشته و ابرقدرت‌ها وارد مرحله تازه‌ای از پیشرفت‌های نظامی شده‌اند.

 

 

همانطور که در تحقیق جدید موسسه رند (Rand Corporation) اعلام شده، وارد شدن هوش مصنوعی به معادلات می‌تواند استراتژی MAD برای جلوگیری از بالا گرفتن تنش‌های هسته‌ای را خنثی کند و باعث راحت‌تر شدن شرایط شروع یک جنگ جهانی اتمی شود.

utlnumxubmu8xfz4xkan.jpg

 

موسسه رند که به صورت غیرانتفاعی، در ایالات کالیفرنیا آمریکا فعالیت می‌کند،‌ به نیروهای مسلح ایالات متحده در زمینه سیاست‌های جهانی مشاوره می‌دهد و پژوهش جدید محققان آن، توجه زیادی به خود جلب کرده است.

 

 

بحث خطرات هوش مصنوعی در چند سال گذشته بسیار داغ بوده و این موسسه هم با توجه به پیشرفت‌های چشم‌گیر AI برآورد کرده که تا چند دهه آینده احتمال عملی شدن سناریوهای مختلفی با دخالت این فناوری وجود دارد و به همین دلیل خطر بروز جنگ اتمی بین ابرقدرت‌ها باید جدی گرفته شود.

 

 

یکی از این سناریوها رقابت خطرناک بین قدرت‌هاست که در صورت عقب افتادن یک کشور از پیشرفت‌های سایر کشورها، ممکن است باعث شود که کشور مورد نظر در تلاش برای رسیدن به توازن قدرت اقدامات خطرناکی را در جهت توسعه دانش هوش مصنوعی خود انجام دهد و این کار احتمال خارج شدن فناوری از کنترل را بالا می‌برد.

6h9gq5a5vk86u4i5j5ln.jpeg

 

از طرف دیگر،‌ همانطور که اندرو لون (Andrew Lohn)، از مهندسان شرکت رند و عضو تیم نویسندگان تحقیق گفته است، افزایش وابستگی کشورها به هوش مصنوعی شانس بروز اشتباهات فاجعه‌بار در این زمینه را بالا می‌برد و در صورتی که امکانات AI یکی از ابرقدرت‌ها به اندازه‌ای پیشرفت کند که بتواند طرف مقابل را کاملا خلع سلاح هسته ای کند، سیستم بازدارنده تخریب حتمی متقابل دیگر کارساز نخواهد بود.

 

 

همچنین، بحث هک شدن تجهیزات وابسته به هوش مصنوعی کشورها هم مطرح می‌شود که در صورت تامین نشدن امنیت مجازی دستگاه‌ها، هر فرد یا گروهی می‌تواند سیستم‌های کنترل‌کننده تسلیحاتی کشورها را مورد حمله سایبری قرار دهد و حتی بدون دخالت عمدی ابرقدرت‌ها، فرآیند نابودی نسل بشر را کلید بزند.

 

awfml4rmb9f6vlu4qj9.jpg

 

به همین خاطر است که دانشمندان موسسه رند در کنار شخصیت‌های بزرگی مانند ایلان ماسک،‌ مدیر کمپانی‌های تسلا و اسپیس ایکس و همچنین بیل گیتس،‌ دومین مرد ثروتمند دنیا، همواره در مورد خطرات هوش مصنوعی هشدار می‌دهند و در کنار تاکید بر روی اهمیت کنترل توان هسته‌ای کشورهای جهان،‌ تلاش می‌کنند تا اقدامات لازم برای کاهش ریسک بروز جنگ هسته‌ای مورد نظر را انجام دهند.

 

منبع: گجت نیوز

لینک به دیدگاه

به گفتگو بپیوندید

هم اکنون می توانید مطلب خود را ارسال نمایید و بعداً ثبت نام کنید. اگر حساب کاربری دارید، برای ارسال با حساب کاربری خود اکنون وارد شوید .

مهمان
ارسال پاسخ به این موضوع ...

×   شما در حال چسباندن محتوایی با قالب بندی هستید.   حذف قالب بندی

  تنها استفاده از 75 اموجی مجاز می باشد.

×   لینک شما به صورت اتوماتیک جای گذاری شد.   نمایش به صورت لینک

×   محتوای قبلی شما بازگردانی شد.   پاک کردن محتوای ویرایشگر

×   شما مستقیما نمی توانید تصویر خود را قرار دهید. یا آن را اینجا بارگذاری کنید یا از یک URL قرار دهید.

×
×
  • اضافه کردن...