12-31-2015, 07:04 PM
Mehrbod نوشته: - نخست آنکه یا سرانجام 0=Sn است یا S≠0
به دلیل گفته شده، S≠0 درست است.
Mehrbod نوشته: ٢- n را ما نه بیکران, بساکه بزرگ گرفتهایم (روشنگری).
بهتر، بر پاد استدلال شماست!
Mehrbod نوشته: ٣- در برخی جاها S ایستا (ثابت) است, در برخی جاها نه: ابرهوشواره ایستا است (یکبار بختی بیشتر نیست), نانوتکنولوژی شاید سه بار گندی بالا بتواند بیاید و آدمی جان سالم به در ببرد.
بخت به کام بودگی همان بار اول را به 100% نزدیک کردن شرط لازم و کافی برای جان به در بردن ازلی است:
یک بار قمار سرنوشت ساز بار اول ≠ فقط یک بار اشتباه فاجعه بار در هر زمانی
Mehrbod نوشته: اکنون, نکتهیِ یکم, در اینجا نمیتوان بدلخواه S را ایستا (static) یا ناایستا انگاشت,
بساکه بایستی به دورنما و زمینهیِ تکنولوژی نامبرده نگریست و دید که یک لغزش چه بهایی در بر دارد.
S ها را اشتباه گرفته اید. S حالت اول (شما) بی شک ایستا نیست، n بار تکرار خود احتمال را تغییر میدهند و هیچ گونه کنترلی روی آن همه اقدام نمیتوان اعمال کرد. اما تا زمانی که S صفر نیست این موضوع اهمیت ندارد.
S حالت دوم (من) احتمال یک بار (بار اول) است: ایستا یا حداقل قابل کنترل و تعیین است، زیرا قماریست که سرنوشت حیات به آن وابسته است!
Mehrbod نوشته: سپس, نکتهیِ دوم:
کافی است که بار اول خطا صورت نگیرد تا خطا های بعدی سرکوب شوند.
این نیز یک پیشانگاشت نادرست است که اگر خطا انجام نگرفت پس دیگر هرگز خطایی رخ نخواهد داد. در یک نمونه, بگوییم
ابرهوشواره, با بختی نزدیک به ∞, اگر بار یکم خطایی انجام نپذیرد آنگاه برایند کار برای آدمی براستی خواستنی خواهد بود,
ولی نکته روشن اینجا همین است که ما نه همچو بختی نزدیک به بیکران داریم و نه توان انجام دادن و کوشیدن چندباره.
در راستای بحث اینجانب.
Mehrbod نوشته: این پیشانگاشت در زمینههای دیگر دیگر نیز نادرست است. اگر در ساخت نانوتکنولوژی پژوهشگر یا برنامهنویس یک روتین را
آنجور که باید درست و دوراندیشانه پیاده نکرد, نیمی از بشریت میرود که نابود بشود ولی همچنان با نبوغ بالا و کمی بخت میتوان
آنرا درست نمود, ولی این درست شدن به این معنی نیست که بار دوم دیگر همه چیز بخوبی و خوشی انجام خواهد پذیرفت.
دفعه اول Blue Goo بسازید تا دفعات بعد بشر نابود نشود!
Mehrbod نوشته: از زمانیکه هواپیماها ساخته شدند و ایدهیِ "جعبهیِ سیاه" مطرح شد, با هر بار سقوط یک هواپیما
شانس اینکه هرگز هواپیمایی دوباره بیافتد کم شده است, زیرا در هر سقوط با بررسی و واکاوی جعبهیِ سیاه
لغزش را دریافته و آنرا در ساخت هواپیمای پسین از میان برمیدارند. این روند ولی پیروی قانون آنتروپی است
که راههایی که یک چیز میتواند کار نکند همواره بیشتر — بسیار بیشتر — از راههایی هستند که میتواند کار کند و
ازینرو در اینجا, در این تکنولوژی بسیار سادهتر هم آدمی هنوز نتوانسته با چند بار لغزش به فرزامش (perfection) دست یابد, زیرا راههایِ به خطا رفتن بسیاراند (از روی قانونهایِ آنتروپی + آمایشیکان {combinatorics})
ازهمینرو, جاییکه آدمی پس از دههها کوشش هنوز نمیتواند هواپیمایی بسازد که ریسک افتادنش 0 باشد, این چندان مایهیِ "دلگرمی" نیست که بخواهد بیاید در این میان به یکبار و بی هیچگونه لغزشی ابرهوشوارهای میلیاردها بار!
هوشمندتر از خودش را بسازد که بخوبی در کنترل و دامنهیِ پیشبینیپذیری او باشد و همانی را بکند که او میخواهد.
تا جایی که من میدانم اکثر موارد در اثر خطای انسانی رخ داده اند و حتی خودروی خودران گوگل نیز تا کنون حادثه ای غیر عامل انسانی نداشته است.
شما طوری وانمود میکنید گویا همین فردا قرار است AI یا نانوماشین واقعی بسازند! کسانی که این کار را خواهند کرد به افزونه های عصبی و هوش برتر مجهز خواهند بود و طراحانی که سرشان به تنشان میارزد همه حالات ممکن را پیشگویی خواهند کرد و موانع لازم را در برابر خطا قرار خواهند داد. اگر فرگشت چنگار و بیماری روانی را با سیستم هایی که میدانیم سرکوب میکند، چیزی که توسط طراحی هوشمندانه به وجود آمده چگونه راه خطا را در پیش خواهد گرفت؟
I am a degenerate