Mohammad Aref 120454 اشتراک گذاری ارسال شده در 2 تیر، ۱۳۹۶ آیا هشدار ایلان ماسک و استیون هاوکینگ راجع به تسلط قریبالوقوع هوش مصنوعی بر بشریت به حقیقت میپیوندد؟ در حالی که هوش مصنوعی به دانشمندان کمک کرده است تا دنیا را به جای بهتری برای زندگی تبدیل کنند اما اخیرا تحقیقات نشان داده است که پیشرفتهترین نوع هوش مصنوعی در برخی موارد از دستورالعملهای برنامهریزی شده پیروی نمیکند و تحت اختیار و تصمیم خود عمل میکند! پیشرفتهترین هوش مصنوعی، “یادگیری عمیق” است. یادگیری ژرف روشی است که دانشمندان با تزریق انواع مختلفی از دادهها رباتها را برای تصمیمگیری، حل مسایل و مشکلات و دیگر کارها براساس این دادهها مهیا میسازند. لازم به ذکر است که دانشمندان تنها وظیفه تزریق دادهها و آموزش رباتها را برعهده دارند و رباتها با توجه به انواع مختلف دادههای تزریقی به طور مستقل تصمیمگیری میکنند. یادگیری عمیق میتواند روش بسیار موثری باشد، چرا که برای مثال میتواند بیماریهای مهلک را به موقع تشخیص داده یا با توجه به شرایط بازار تصمیمات پر سود میلیون دلاری بگیرد. هوش مصنوعی از چنان پیشرفتی برخوردار شده است که حتی در حال حاضر در برخی موارد دانشمندان نمیدانند که هوش مصنوعی چگونه عمل میکند! برای مثال در بیمارستان “ماونت سینای”( نیویورک یک الگوریتم هوش مصنوعی برای تشخیص بیماری مراجعین به کار گرفته شد و این برنامه بیماری همه مراجعین را به درستی تشخیص داد. این برنامه حتی شیزوفرنی را نیز به درستی تشخیص داد. به گواه پزشکان تشخیص بیماری شیزوفرنی بسیار سخت و مشکل است. جوئل دادلی سرپرست گروه تحقیقاتی بیمارستان “مونت سینای”(mount sinai) عنوان کرد که گروهش میتواند مدلهای پیشرفتهتری نیز بسازد، اما هیچ تصوری از اینکه چگونه کار میکند ندارند! هوش مصنوعی به سرعت در حال رشد و پیشرفت است به طوری که قدرتمندترین و پیشرفتهترین رباتها اکنون دیگر به دستوراتی که از انسانها میگیرند وابسته نیستند و در عوض براساس اطلاعات تزریقی الگوریتم خاص خود را میسازند و طبق آن عمل میکنند. در واقع به طور خلاصه، رباتها خودشان را برنامهریزی میکنند! به همین دلایل این ترس جدی وجود دارد که اگر رباتها دچار اشتباه شوند چه کسی پاسخگو خواهد بود و دانشمندان چگونه میتوانند چیزی را که خودشان نمیدانند به چه صورت عمل میکند توضیح دهند؟ منبع: بیگ بنگ 3 لینک به دیدگاه
Mohammad Aref 120454 مالک اشتراک گذاری ارسال شده در 23 مرداد، ۱۳۹۶ ایلان ماسک هوش مصنوعی را خطرناکتر از تهدید کره شمالی میداند! ایلان ماسک جمعه شب در توییتی عنوان کرد که باید نگران هوش مصنوعی باشیم؛ چرا که خطر آن به مراتب بیشتر از تهدید کره شمالی است. ایلان ماسک ، میلیاردر نابغهای که تونی استارک دنیای واقعی لقب گرفته است، همواره درباره خطرات هوشی مصنوعی برای بشریت هشدار میدهد! اما دلیلش چیست؟ ماسک جمعه شب گذشته در تویتر خود درباره هوش مصنوعی هشدار داد و آن را با تهدید کره شمالی مقایسه کرد. متن توییت وی به شرح زیر است: باید نگران امنیت هوش مصنوعی باشید. خطر این پدیده بسیار بیشتر از تهدید کره شمالی است. ماسک این تویت را درحال منتشر کرد که هوش مصنوعی توسعه یافته بدست استارتآپ 1 میلیارد دلاری خود موسوم به OpenAI، همان شب حضوری شگفت انگیز در مسابقه بازی کامپیوتری Dota 2 با جایزه 24 میلیون دلاری یافت و موفق به شکست بهترین بازیکنان Dota 2 در جهان شد. ایلان ماسک مدعی است که هوش مصنوعی ساخته شده بدست OpenAI اولین هوش مصنوعی است که موفق به شکست بهترین بازیکنان بازیهای ویدیویی شده است. وی همچنین متذکر شد که خطر افزایش شمار هوش مصنوعیهای قدرتمند همچون بات ساخته شده بدست OpenAI میتواند در نهایت برای امنیت انسانها خطرناک باشد. ناگفته نماند بات OpenAI مهارت خود را از راه بازی کردن با خود بدست آورده است؛ این بات میتواند همزمان هزاران بازی در مقابل خود انجام دهد با کسب تجربه از این بازیها، بر توان خود بیافزاید. ماسک در تویتی دیگر که همان شب نوشت نیز میگوید: هیچ کس دوست ندارد کنترل شود. اما هرآنچه که برای جامعه خطرناک (همچون داروها، خودروها و…) است، همگی کنترل میشوند. هوش مصنوعی نیز باید چنین باشد. وی پیشتر نیز درباره بی اعتمادی به هوش مصنوعی ابراز نگرانی کرده بود. مدیر عامل تسلا و اسپیسایکس در سال 2016 هشدار داد در صوتی که هوش مصنوعی را بدون نظارت و کنترل رها کنیم، با توجه به افزایش شمار و قدرت ابرکامپیوترهای قدرتمند ممکن است انسانها تبدیل به حیوانات خانگی برای آنها شوند؛ به این معنی که آنها بر ما غلبه کنند! البته ایلان ماسک درحالی این قیاس را بیان میکند که خود از فرضیه پردازانی است که باور دارد انسانها به یک لایه هوش دیجیتال، که از سوی ماسک «توری عصبی» نام گرفته، نیاز دارند. او در کنفرانسی که سال 2016 در کالیفرنیای جنوبی برگزار شد اظهار داشت: گمان میکنم افزودن یک لایه هوش دیجیتال یکی از بهترین راهکارها باشد. یک لایه سوم هوش دیجیتالی با عملکرد مناسب و همزیستی با دیگر اجزای بدن انسان. گرچه همان موقع نیز ماسک بیان کرد: اگر موفق به ساخت یک رابط با پهنای باند بالا بین سیستم عصبی و زندگی دیجیتال شما شویم، دیگر یک گربه خانگی نخواهید بود. البته ناگفته نماند متخصصان علوم نانو مدتی است که مشغول کار روی این طرح هستند. منبع: گجت نیوز 1 لینک به دیدگاه
Mohammad Aref 120454 مالک اشتراک گذاری ارسال شده در 3 خرداد، ۱۳۹۷ هوش مصنوعی تا سال 2040 یک جنگ اتمی ویرانگر را به راه میاندازد! جنگ اتمی موضوع مقالهای است که به تازگی توسط کارشناسان مسائل امنیتی تهیه شده و در آن احتمال اینکه تکنولوژی هوش مصنوعی (AI) تا سال 2040 یک جنگ جهانی عظیم را برای نابودی بشر راه بیاندازد، مطرح شده است. جنگ اتمی هم به تهدیدهای بالقوه فناوری جنجالبرانگیز هوش مصنوعی (AI) اضافه شد؛ به تازگی متخصصان در قالب یک پژوهش هشدار دادهاند که ممکن است تکنولوژی هوش مصنوعی تا 20 سال آینده با یک جنگ هسته ای بزرگ نسل ما را به کلی از بین ببرد و بشر هم به احتمال قوی توانایی متوقف کردن این فاجعه را نخواهد داشت. هوش مصنوعی و جنگ اتمی در ابتدا موضوعی مربوط به دوران جنگ سرد و مسابقه تسلیحاتی ابرقدرتهای جهان را مورد توجه قرار میدهیم؛ در آن زمان یک دکترین سیاسی به نام «تخریب حتمی متقابل» (MAD) در جریان بود که طرفین درگیری را از بهکارگیری سلاح های هسته ای منع میکرد و بر این اساس که حمله اتمی به یک کشور، اقدام متقابل آن کشور را به دنبال دارد و باعث نابودی کامل هر دو طرف میشود، صلحی جهانی بین آمریکا و روسیه در جریان بود. این استراتژی ترسناک و دلهرهآور در حفظ صلح در آن دوران تاثیرگذار بود و از نابودی کامل و یا جزئی نسل بشر جلوگیری کرد، اما نکته اینجاست که دههها از زمان جنگ سرد گذشته و ابرقدرتها وارد مرحله تازهای از پیشرفتهای نظامی شدهاند. همانطور که در تحقیق جدید موسسه رند (Rand Corporation) اعلام شده، وارد شدن هوش مصنوعی به معادلات میتواند استراتژی MAD برای جلوگیری از بالا گرفتن تنشهای هستهای را خنثی کند و باعث راحتتر شدن شرایط شروع یک جنگ جهانی اتمی شود. موسسه رند که به صورت غیرانتفاعی، در ایالات کالیفرنیا آمریکا فعالیت میکند، به نیروهای مسلح ایالات متحده در زمینه سیاستهای جهانی مشاوره میدهد و پژوهش جدید محققان آن، توجه زیادی به خود جلب کرده است. بحث خطرات هوش مصنوعی در چند سال گذشته بسیار داغ بوده و این موسسه هم با توجه به پیشرفتهای چشمگیر AI برآورد کرده که تا چند دهه آینده احتمال عملی شدن سناریوهای مختلفی با دخالت این فناوری وجود دارد و به همین دلیل خطر بروز جنگ اتمی بین ابرقدرتها باید جدی گرفته شود. یکی از این سناریوها رقابت خطرناک بین قدرتهاست که در صورت عقب افتادن یک کشور از پیشرفتهای سایر کشورها، ممکن است باعث شود که کشور مورد نظر در تلاش برای رسیدن به توازن قدرت اقدامات خطرناکی را در جهت توسعه دانش هوش مصنوعی خود انجام دهد و این کار احتمال خارج شدن فناوری از کنترل را بالا میبرد. از طرف دیگر، همانطور که اندرو لون (Andrew Lohn)، از مهندسان شرکت رند و عضو تیم نویسندگان تحقیق گفته است، افزایش وابستگی کشورها به هوش مصنوعی شانس بروز اشتباهات فاجعهبار در این زمینه را بالا میبرد و در صورتی که امکانات AI یکی از ابرقدرتها به اندازهای پیشرفت کند که بتواند طرف مقابل را کاملا خلع سلاح هسته ای کند، سیستم بازدارنده تخریب حتمی متقابل دیگر کارساز نخواهد بود. همچنین، بحث هک شدن تجهیزات وابسته به هوش مصنوعی کشورها هم مطرح میشود که در صورت تامین نشدن امنیت مجازی دستگاهها، هر فرد یا گروهی میتواند سیستمهای کنترلکننده تسلیحاتی کشورها را مورد حمله سایبری قرار دهد و حتی بدون دخالت عمدی ابرقدرتها، فرآیند نابودی نسل بشر را کلید بزند. به همین خاطر است که دانشمندان موسسه رند در کنار شخصیتهای بزرگی مانند ایلان ماسک، مدیر کمپانیهای تسلا و اسپیس ایکس و همچنین بیل گیتس، دومین مرد ثروتمند دنیا، همواره در مورد خطرات هوش مصنوعی هشدار میدهند و در کنار تاکید بر روی اهمیت کنترل توان هستهای کشورهای جهان، تلاش میکنند تا اقدامات لازم برای کاهش ریسک بروز جنگ هستهای مورد نظر را انجام دهند. منبع: گجت نیوز لینک به دیدگاه
ارسال های توصیه شده