04-01-2016, 03:29 PM
Mehrbod نوشته: دویست سال پیش باور اینکه یک روز یک "چیزی" بتواند با آدم شترنگ بازی کند و او را ببرد ناشدنی بود, امروز به واقعیت پیوسته.صد سال پیش تصور چیزی مثل موبایل غیرممکن مینمود و خیلی زود شد، امروز
هم اگر تصور اینکه بتوانیم سفرهای بینکهکشانی داشته باشیم، غیرممکن است
و دقیقا به همین دلیل به این فناوری دست خواهیم یافت! به گمان من منطق
این چیزی که شما گفتید و این چیزی که من میگویم یکی است. نمیتوان
اینطور حرف زد که چون فلان چیزی که قبلا تصور میکردیم نشدی است،
خیلی زود شدنی شد، این چیزی که الان میگویم نشدنی است، به زودی
شدنی خواهد شد. روابطی که بین مقدمه و نتیجه رعایت نمیشود
منجر به این سفسطه میشود و در نتیجه ما باید هر آنچه که شما میگویید
شدنی خواهد بود را باور بکنیم.
Mehrbod نوشته: و چرا این همه راهِ دور؟ تا همین بیست سال پیش باور اینکه رایانهها بتوانند گفتههایِ آدم را
بگیرند science-fiction بود, ولی امروز میبینم Google Now با چه دقّت باورنکردنیای دارد همین کار را میکند.
همگان هم که با روند رو به پیشرفت مترجمها آگاهی دارند, جوریکه Google Translate دارد کم
کم به اندازهیِ یک کودک نوزبان سخنوری میکند و هتّا زبانها مردهای چون لاتین را هم میداند.
آیا اینکه با ترکیب همهیِ اینها و همراه با پیشرفت تصاعدی و روزافزون و دستادست سختافزارها و
نرمافزارها, تا همین چند دههیِ دیگر رایانهها به هوش آدمی دست بیابند این اندازه دور از باور است؟
خب که چه؟ به فرض که به هوشی در حد هوش انسان دست یابند، چه چیز باعث
میشود که باور کنیم که همهی اینها تواناییهایی اجرایی را نیز بدست آورده
و با هماهنگی برای نابودی انسانها دست به یکی خواهند کرد؟
ببینید شما وقتی از تهدیدی جهانی سخن میگویید و در مورد اینکه ماشینهایی
هوشمند، خطری بالقوه و جدی و قریبالوقوع برای انسان محسوب میشوند،
باید مشخص کنید که «هوشمندی» به تنهایی چگونه میتواند علیه «انسان» طغیان
کند؟ زیرساختها و ابزارهای عملیاتی و امکانات اجرایی را از کجا و چطور به دست خواهد آورد؟
واقعا گمان میکنید که اگر ما یک ماشین سوپرهوشمند بسازیم، آنگاه نابودی بشر تضمین
شده است؟
Mehrbod نوشته: تکینگی فندین زمانی رخ میدهد که نخستین هوشوارهای پدید بیاید که بتواند خود خودش را به اندازهیِ یک جو هم که شده, بهترانیشتین هم بسیار هوشمند بود!
بسازد[/b]. از این بازه به آنسو, در کمتر از چند روز یا هتّا ساعت, ابرهوشوارهای پدید خواهد آمد که از همهیِ بشریت روی هم بیشتر هوشمند باشد.
هوشمندی زمانی خطری جهانی خواهد بود که اینها را داشته باشد:
1- توانایی دسترسی به زیرساختها، منابع عظیم انرژی، تسلیحات و ... در سطح جهانی.
2-داشتن روحیات تبهکارانه (در مورد هوش مصنوعی، باگ و حفره پیشبینینشده)
ما میتوانیم بگوییم که ممکن است تسلیحات و ابزارهایی که میتوانند در سطح جهانی
حیات بشر را تحت تاثیر قرار دهند، به قدر کفایت در مقابل استفادههای تبهکارانه محافظت
نشده و نمیشوند، اما اینکه بطور کلی نسبت به خطرات آنها بیتوجه بوده باشند هم غیرواقعیست.
جالب اینکه بحث ما مصادف شده با کنفرانس امنیت سلاحهای هستهای. در همین کنفرانس
مهمترین موضوعی که به بحث گذاشته میشود، دسترسی فعالان شبهدولتی (مثل داعش)
به سلاحها کشتار جمعی، بمبهای کثیف و امثالهم است. جالب آنکه این بحثهایی که الان
در مورد دسترسی تبهکاران و تروریستهای شبهدولتی به سلاحهای کشتار جمعی
میان ما مطرح است، اصلا قدیمی نیست و دقیقا از زمان تولد اولین بمب هستهای این بحثها
مطرح بوده. جالبتر اینکه در تمام این سالها تنها یکبار، آنهم در مترویی در ژاپن از مواد هستهای
استفادهی تروریستی شده است.
کسشر هم تعاونی؟!