08-21-2015, 05:42 PM
در آخر باید بگویم که اشتباه شما کجا بوده است مهربد. برخلاف دیگر فناوری های پرزور هوش مصنوعی و نانوتک میتوانند هم در جهت تخریب استفاده شوند و هم در جهت ساخت. این جدای استفاده درست و غلط از فناوری است. بمب اتمی میتواند هم در جنگ (نادرست) استفاده شود هم برای دفاع در برابر سیارک ها (درست). همچنین سلاح شیمیایی میتواند در جنگ استفاده شود (نادرست) و هم به عنوان آنتی بیوتیک! (درست).
اما همه این موارد با تخریب کار میکنند و یک بمب اتمی هیچ گاه نمیتواند اثر بمب دیگری را خنثی کند!
با شما در این که نتیجه اولین اقدام اشتباه/سو استفاده از AI و Nanotech باشد آخرین اشتباه است موافق هستم. اما خطای شما در این است که میپندارید "همواره" اولین اشتباه آخرین اشتباه خواهد بود!
به شرط این که اولین نتیجه اشتباه/سو استفاده نباشد, میتوان هوش مصنوعی ای سازگار با بقا و رفاه حیات را ناظر و حاکم کرد که هرگونه خطایی در زمینه ساخت و به کار گیری فناوری را به سر عت کنترل و سرکوب کند. در مورد نانو تک هم چنین است و میتوان زودتر از هر چیز نانو ماشین های حافظ صلح!!! (Blue Goo) را پخش و فعال کرد که سیستم ایمنی زمین شوند و هر نوع نانوماشین بدخیمی را در نطفه خفه کنند.
به زبان هیونداییک:
شما میگویید: 0=S[SUP]n[/SUP]
که در آن S امکان خطا نکردن در خلق و استفاده از فناوری است (Survival) و n تعداد اقدام به خلق و استفاده. روشن است که حتی اگر S بسیار به یک نزدیک باشد مادامی که n محدودیت نداشته باشد حاصل نزدیک به صفر خواهد بود. مثال:
0.000045173=0.999[SUP]10000[/SUP]
مشکل اینجاست که فرض شده S ثابت است و به تعداد دفعات قبلی بستگی ندارد. احتمال بقای کل در اینجا عملا صفر است.
من میگویم: S≠0
کافی است که بار اول خطا صورت نگیرد تا خطا های بعدی سرکوب شوند. تفاوت ماجرا این میشود که نتیجه شما, یقینا انقراض بدون توجه به اقدامات پیشگیرانه, تبدیل میشود به قماری که میتوان با تلاش و دقت شانس پیروزی در آن را بالا برد.
اما همه این موارد با تخریب کار میکنند و یک بمب اتمی هیچ گاه نمیتواند اثر بمب دیگری را خنثی کند!
با شما در این که نتیجه اولین اقدام اشتباه/سو استفاده از AI و Nanotech باشد آخرین اشتباه است موافق هستم. اما خطای شما در این است که میپندارید "همواره" اولین اشتباه آخرین اشتباه خواهد بود!
به شرط این که اولین نتیجه اشتباه/سو استفاده نباشد, میتوان هوش مصنوعی ای سازگار با بقا و رفاه حیات را ناظر و حاکم کرد که هرگونه خطایی در زمینه ساخت و به کار گیری فناوری را به سر عت کنترل و سرکوب کند. در مورد نانو تک هم چنین است و میتوان زودتر از هر چیز نانو ماشین های حافظ صلح!!! (Blue Goo) را پخش و فعال کرد که سیستم ایمنی زمین شوند و هر نوع نانوماشین بدخیمی را در نطفه خفه کنند.
به زبان هیونداییک:
شما میگویید: 0=S[SUP]n[/SUP]
که در آن S امکان خطا نکردن در خلق و استفاده از فناوری است (Survival) و n تعداد اقدام به خلق و استفاده. روشن است که حتی اگر S بسیار به یک نزدیک باشد مادامی که n محدودیت نداشته باشد حاصل نزدیک به صفر خواهد بود. مثال:
0.000045173=0.999[SUP]10000[/SUP]
مشکل اینجاست که فرض شده S ثابت است و به تعداد دفعات قبلی بستگی ندارد. احتمال بقای کل در اینجا عملا صفر است.
من میگویم: S≠0
کافی است که بار اول خطا صورت نگیرد تا خطا های بعدی سرکوب شوند. تفاوت ماجرا این میشود که نتیجه شما, یقینا انقراض بدون توجه به اقدامات پیشگیرانه, تبدیل میشود به قماری که میتوان با تلاش و دقت شانس پیروزی در آن را بالا برد.
I am a degenerate