پیشرفت روزافزون فندآوری: به کجا میرویم؟ -
Mehrbod - 02-09-2016
Secular نوشته: گرامی ! بگذار منم جور دیگه ای بگم! فرض کنیم شما همه دانشمندانی که دارن روی اون دستگاه کار می کنند رو کشتین! آیا بازم تضمینی هست که دانشمندای دیگه ای جایگزین اونا نشن؟ و اگه کشتن تنها راه حل این مسئله باشه پس باید یک بکش بکش تمام نشدنی راه بیفته!
آفرین, سخن شما درست است و این همان
افسارگریختگی تکنولوژی میباشد که از آن سخن برده شده.
آماج کازینسکی نیز از سَهمگری (terrorism) همین بود که بتواند روزنامههایِ آن زمان را وادار کند آرماننامهیِ زیر را چاپ کنند:
Industrial Society and Its Future
در همان پاراگرافهایِ آغازین آرماننامه آمده:
Take us (FC) for example. If we had never done anything violent and had submitted the present writings to a publisher, they probably would not have been accepted. If they had been been accepted and published, they probably would not have attracted many readers, because it’s more fun to watch the entertainment put out by the media than to read a sober essay. Even if these writings had had many readers, most of these readers would soon have forgotten what they had read as their minds were flooded by the mass of material to which the media expose them. In order to get our message before the public with some chance of making a lasting impression, we’ve had to kill people.
پیشرفت روزافزون فندآوری: به کجا میرویم؟ -
Mehrbod - 02-09-2016
Transcendence نوشته: من چند سوال از جناب مهربد دارم.
1)سیستم تکنولوژی غیر قابل کنترل است.چرا؟
افسارگریختگی سیستم از این ریشه میگیرد که بسیار پیچیده و بزرگ است و راستادهی آن در توان آدمی نیست.
یک نمونهیِ پیش پاافتاده ولی گویا, آیا امروزه هیچکس, یا هیچ گروهی, یا هیچ کشوری هتّا!,
میتواند از ساخت بمب اتم یا جنگافزارهای بیولوژیکی یا بهمان تکنولوژی دیگر, در سرتاسر جهان پیشگیری کند؟
پاسخ بآشکاری
نه میباشد. روشن است کسی تک و تنها هیچ کاری نمیتواند بکند, ولی خب برای نمونه
کس میتواند با پیوستن به این گروههای اتم-ستیز یا جنگافزار-ستیز رای بیشتری برای حزب خود گرد بیاورد و شاید هتّا
پس از دههها تکاپو موفق شود از ساخت یکی از این تکنولوژیها در کشور خود پیشگیری کند, ولی هتّا این نیز
پیروزیای گذرا و ناپایدار خواهد بود. چه که پس از چند سال همهیِ کابینهیِ دولت جابجا و جایگزین خواهند
شد و یا هتّا چند سال آنسوتر از بیخ دولت نویی میتواند سر کار بیاید و همهیِ رشتهها را یک شبه پنبه خواهد کرد.
هر آینه این روند در یک گروه کوچک — که بیشتر روند فرگشت را آدمی در گروههای نخستینی و همانندی گذرانده — پابرجا نیست.
Transcendence نوشته: 2) ایا دلایل قاطعی دارید ،مبنی براینکه سیستم تکنولوژی نهایتا منجر به نابودی ادمیان میشود؟
آری, در جُستار بیشتر به اینها پرداخته شده است. نکتهای که نبایستی از یاد بُرد,
تکنولوژی میتواند به نابودی "آدمیت" نیز بیانجامد, یعنی به ساخت آدمهایی بیانجامد که
همهیِ آزادیها آنها گرفته شده است و فرآوردهیِ ژنتیکی و دستکاری شدهیِ سیستم میباشند.
در این جُستار پیشتر بژرفی به همهیِ آیندههایی که تکنولوژی در بر
دارد پرداخته شده است و هیچ کدام از آنها برای آدم خواستنی نبوده است.
Transcendence نوشته: 3)سیستم تکنولوژی بر اساس چه اصولی می باشد که تا این حد غیر قابل نفوذ می باشد؟
سیستم تکنولوژیک از قانونهایِ فیزیکی پیروی میکند, درست همانگونه که خود آدم یک
سیستم یا سازواره (organism) میباشد که از ≈٤ تریلیون یاخته درست شده است, سیستم تکنولوژیک
هم یک سازواره یا بهتر بگوییم, یک ابرسازواره (superorganism) میباشد که از ٧≈ بیلیون آدم ساخته شده است.
و نیز بوارونه, سیستم تکنولوژیک بمانند هر سیستم پیچیدهیِ دیگری
شکننده است.
درست همانجور که مغز یکی از سُستگاههای آدم به شمار میرود که با یک ضربه او
را ناکار میکند, سیستم تکنولوژیک نیز سستگاههایِ و آسیبگاههایِ خودش را دارد.
نکتهای که اینجا پُرگاه ولی بخوبی گرفته نمیشود این میباشد که راستادهی برابر با نابودسازی نیست. یعنی اگرچه
آدمی را میتوان با یک ضربه به گیجگاهش از پا درآورد, ولی راستادهی همان آدم نیاز به کاربرد نیرو و انرژی بسیار بسیار بیشتری دارد.
اگر از دیدگاه یک یاخته درون پیکر نیز نگریسته شود, یک یاخته میتواند بتنهایی از راه سرطانی شدن همهیِ سازواره
را از پا در بیاورد, ولی همان یک یاخته نمیتواند هرگز بتنهایی سازواره را کنترل نماید, هتّا اگر یاختهیِ مغزی باشد:
سیستم تکنولوژیک را میتوان از پا در آورد, ولی نمیتوان به آن راستا بخشید.
Transcendence نوشته: 4)آیا ارتباطی بین سیستم تکنولوژی و نهیلیسم وجود دارد؟
از دید روانشناسی و جامعهشناسی, امروز آدمی در زیستبومی زندگی میکند که از آنچه در آن فرگشته
بسختی متفاوت است. این تفاوت در پیدایش بیماریهایِ روانی گوناگون, از جمله پوچیگرایی بیگمان نقش بسزایی
داشته است, بویژه زمانیکه به این نکته نگریسته میشود که در تیرههای نخستینی پدیدهای مانند خودکشی هتّا
دیده نمیشده/نمیشود, هنگامیکه در جهان امروز در پیشرفتهترین کشورهای تکنولوژیک, مانند ژاپن, آمار آن سر به آسمان میکشد.
Transcendence نوشته: 5)درصورت توقف سیستم تکنولوژی چه روشی برای تحقق آرمان ها و ایده آل های بشری معرفی می کنید؟
این را میتوان به آیندگان واسپرد. آنچه در گفتمان تکنولوژی اهمیت دارد پیشگیری از بدتر
شدن شرایط و به روز سیاه افتادن و نیست شدن و جایگزین شدن با روباتهایِ هوشمند است.
.
پیشرفت روزافزون فندآوری: به کجا میرویم؟ -
Mehrbod - 02-09-2016
Transcendence نوشته: آتیسم به معنای فقدان باور به خدا یا خدایان می باشد.یک آتیست احتمال وجود خدایان را پایین ارزیابی می کند و چنین موجوداتی را در زندگی موثر نمی داند.خوب مسلما کسی که نظارت و کنترل خدایان را نمی پذیرد احساس آزادی می کند و البته در مسائل و مشکلات زندگی در برابر خدایان سر تعظیم فرود نمی اورد و ذکر وثنای انان را نمی گوید و دعا وندبه وناله نمی کند(غلبه بر ضعف واحساس قدرت) و به دنبال شناخت واقع بینانه از خود وطبیعت است(احساس عقلانی بودن(.
نهیلیسم انچنان که من درک می کنم به معنای فقدان ارزشی بنیادین برای زندگی و وجود ادمیان می باشد.یک نهیلیست می تواند خداباور یا بی خدا با شد.البته نهیلیسم را می شود در اخلاق و وجود شناسی و شناخت شناسی نیز بررسی کرد.
نقل قول:خوب شاید سوال درست این باشد که ارتباط بین تکنولوژی و نهیلیسم چه می باشد.
چرا بشر سیستمی را بنیان نهاده است که نهایتا منجر به نابودیش می شود.
اگر این سیستم نهایتا منجر به نابودی بشر است چرا ما در برابر پیشروی و توقف آن ناتوانیم.
بشر از روی مرگرانه یا گرایش درونی به پوچگرایی یا با خواست درونی سیستمی که او را بخواهد نابود کند را درست نکرده است,
بساکه بسادگی, چیزها رفته رفته پیچیدهتر و پیشرفتهتر شده و از کنترل او بیرون رفتهاند. در حقیقت تا همین چند سده پیش آدمی
کنترل بسیار بالایی بر سرنوشت و زندگی خودش داشت, زیرا تکنولوژی هنوز این اندازه پیشرفته نشده بود, راههایِ ارتباطَی
هنوز این اندازه گسترده نشده بود و ابزارهای نظارت, کنترل و مدیریت هنوز به این پیچیدگی نرسیده بودند که امروز داریم.
در سوی دیگر, سیستم تکنولوژیک در پی نابودی آدمی نیست, بساکه روند طبیعی خودش را میپیماید. آنچه ولی به سود
آدمی نیست همین پیموده شدن روند طبیعی چیزهاست. برای نمونه روند طبیعی کنونی این است که رایانهها دارند روز بروز
هوشمندتر میشوند و بزودی از آدمی در همهیِ زمینهها برتر خواهند شد, روند ناطبیعیتر و سختتر این است که خود آدمی
روز به روز هوشمند بشود. هر آینه, از آنجاییکه سیستم تکنولوژیک بسیار بزرگ, بسیار پیچیده و بسیار سنگین میباشد, در توان هیچکس نیست
که این روند را به سودی آدمی وارونه بکند و ازینرو, اینکه سرانجام چه میشود یک قمار کور با احتمالات بسیار بسیار بیمناک روی این خواهد
بود که کدامیک زودتر به واقعیت میپیوندد:
روباتهای هوشمند زودتر ساخته بشوند,
یا اینکه نه ابزارهای هوشمندسازی آدمی ساخته بشوند.
اگر شرایط در کنترل آدمی میبودند, آنگاه بروشنی اینجا گزینهیِ دوّم نیز نخست به واقعیت میپوست; ولی از آنجاییکه در
کنترل آدمی نیستند, آنچه آسانتر و هموارتر باشد زودتر نوآوری خواهد شد که در این مورد, پیدایش ابرهوشوارهها میباشد.
پیشرفت روزافزون فندآوری: به کجا میرویم؟ -
Nilftrondheim - 02-11-2016
Mehrbod نوشته: خواننده اینجا میتواند به این نکته نگاه کند که این نظارت در عمل چه اندازه ناکارآمد بوده است و چه اندازه بیهوده.
برای نمونه امروزه بسیاری قانونی در آزمایشگاهها سرگرم ساخت ابزارهای کنترل مغزی میباشند و کسی هم نمیتواند بر اینها نظارت کند.
لطفا بیشتر در مورد این تکنولوژی ها توضیح دهید. کی؟ کجا؟ چطور؟
زیرا ابتدا میخواهم بدانم
Ouroboros نوشته: «آیا حقیقت دارد»؟
سپس
Ouroboros نوشته: «به چه کاری میآید؟»
Mehrbod نوشته: چرا نیست؟
به دلایلی که قبلا گفته شد: surveillance, countermeasures, redundancy, etc
میلیاردها نفری که از این کار آسیب خواهند دید مترسک نیستند.
Mehrbod نوشته: اگر با تبدیل شدن به یک روبات که همهیِ آزادیها او گرفته است گرفتاری ندارید, پس نیاز آنچنانی هم به ستیز با سیستم نخواهید داشت.
نوشتههایِ اینجا برای کسانیست که به آزادی و خودگرانی خود ارج مینهند.
خوب شد پیشگیری کردم! Nope.
Nilftrondheim نوشته: "حریم شخصی زیر مجموعه آزادی قرار میگیرد." خیر! شما آزادید هر کار مجازی بکنید، زیر نظر 100 دوربین بودن این آزادی را از شما صلب نمیکند.
نوشتههایِ اینجا برای کسانیست که به جان و راحتی خود ارج مینهند. نه تنها اینجا، همه جا. خوب میدانیم که پس از 9/11 آمریکایی ها بین
توش رکتال در فرودگاه و
برخورد به برج کدام را انتخاب کردند.:e057:
پیشرفت روزافزون فندآوری: به کجا میرویم؟ -
Nilftrondheim - 02-11-2016
Mehrbod نوشته: یک ابرهوشواره که هوشی بگوییم یک میلیون برابر بیشتر از همهیِ آدمها روی
هم دارد از پایه کنترلناپذیر است و میتواند بآسانی برنامهیِ خودش را از نو بازنویسی نماید.
اگر امروزه رایانهها همان کاری را میکنند که به آنها گفته میشود تنها و تنها ازینرو ست که هوش بسیار پایین و پس کنترلپذیری دارند.
تکلیف را روشن کنید، به کدام دلیل AI (و شاید nanotech) خطرناک میباشند؟ دو حالت زیر جمع پذیر نیستند!
- میتوان آن ها را کنترل کرد و جهت داد. در این صورت به همان بحث benevolence برمیگردیم که باید اولین یا اولین ها "خوب ها" باشند تا پس از آن مشکلی پیش نیاید. فکر کنید پروژه منهتن را اول بار نازی ها یا شوروی اجرا میکردند چه میشد!!!
:e420:.If it can be done, someone's gonna do it. Let's make sure they're the good guys
- نمیتوان آن ها را کنترل کرد و جهت داد. اینها اساسا ناپایدار و غیر قابل پیش بینی هستند و هر گونه استفاده از آنها منجر به آخرالزمان میگردد. در اینجا دو چیز باید روشن شود:
- آیا ناپایدار الزاما به معنی مخرب است؟ از بحث محبوب روانپزشکی مثال بزنم. یک اسکیزوفرن نمیتواند قاتل زنجیره ای باشد. یک سایکوپت میتواند. حتی مخرب بودن نیز نیاز به پایداری و هدفمندی دارد.
- آیا اسکای نت دم در ایستاده است؟ طوری از این تکنولوژی ها سخن میگویید گویا همین فردا اتفاق خواهد افتاد!
ما هنوز نتوانسته ایم 302 نورون یک کرم را شبیه سازی کنیم، چطور انتظار دارید بشر چیزی در این حد پیچیده بسازد سپس نتواند آن را کنترل کند؟ هوش مصنوعی را 30 سال بعد دانشمندانی مجهز به Nootropics و Neural Augmentations خواهند ساخت، کسانی که تفاوت زیادی با آن ندارند!
Mehrbod نوشته: زندگی در طبیعت بروشنی خوبیها و بدیها و همچنین خطرهای خودش را دارد.
کدام خوبی؟ امید به زندگی 25 سال؟
پیشرفت روزافزون فندآوری: به کجا میرویم؟ -
Nilftrondheim - 02-11-2016
Mehrbod نوشته: ساخت یک ابرهوشواره — با هوشی میلیونها بار بیشتر از همهیِ آدمها روی هم — با این امید
که همان کاری را بکند که آدمی در برنامهریزی او ریخته است چیزی بیشتر از خودفریبی نیست,
پست قبلی را ببینید.
Mehrbod نوشته: بویژه زمانیکه میبینیم آدمی از ساخت یک هواپیما که ریسک زمین افتادن آن 0 باشد نیز ناتوان است.
Mehrbod نوشته: یک نمونه از طراحی هوشمندانه که نزدیک به ≈٢٠٠ سال آدمی برای فرزافتن (perfect) آن زمان داشته است:
ابتدا باید روشن کنید کدام یک از دو حالت در پست قبلی مد نظرتان است است.
در ضمن هواپیما امن ترین وسیله نقلیه تاریخ بشر است.
پیشرفت روزافزون فندآوری: به کجا میرویم؟ -
Transcendence - 02-12-2016
از مجموع بحث ها،نتایج زیر رو گرفتم.
سیستم تکنولوژی #ابزار تکنولوژی(تصور اکثریت )
ابزارهای تکنولوژی محصول سیستم می باشند .
کنترل بر روی ابزارهای تکنولوژی امکان پذیر می باشد(فعلا)ولی ما کنترلی بر روی سیستم نداریم.(سیستم ذاتا کنترل گریز است)
در سیستم تکنولوژی انسان به سیستم وابسته و سیستم از انسان مستقل خواهد شد.
(زمانی را در نظر بگیرید که ما هیچ نقشی در فرایند تولید مثل نداشته باشیم)
سیستم تکنولوژی به ما به عنوان موجودات غیرضروری نگاه می کنه!
سیستم تکنولوژی در حال تخریب و پوچ سازی تمام سیستم های انسانی است(مرد سالاری یا زن سالاری یا مذهب وغیره...به وسیله سیستم نابود خواهد شد.)
هر قدمی که در این سیستم به جلو بر می داریم کارایی تکنولوژی بیشتر و کارایی ما ناچیزتر.
هر قدمی که در این سیستم به جلو بر می داریم سیستم از ما مستقل تر و ما به سیستم وابسته تر.
هر قدمی که در این سیستم به جلو بر می داریم وجود تکنولوژی ضروری تر و وجود ما غیر ضروری تر.
نهایتا زمانی فراخواهد رسید که وجود ما از نظر سیستم غیر موجه (هوش ودقت وقدرت پایین وبیماری و...)
و غیر ضرور می شود (جایگزین های مناسبتری موجود می باشد).
پیشرفت روزافزون فندآوری: به کجا میرویم؟ -
Transcendence - 02-12-2016
سیستم در ما نیازهایی ایجاد می کنه و ما برای رفع آن تلاش می کنیم در حالی که حقیقتا سودی برای ما ندارد و به درد سیستم می خورد.
پیشرفت روزافزون فندآوری: به کجا میرویم؟ -
Mehrbod - 02-12-2016
Nilftrondheim نوشته: لطفا بیشتر در مورد این تکنولوژی ها توضیح دهید. کی؟ کجا؟ چطور؟
زیرا ابتدا میخواهم بدانم
نیمنگاهی به آلودگیهای زیستبوم (بیاثری نظارتها), ساخت جنگافزارهای گوناگون (بیاثری نظارتها), تازشهایِ
تروریستها (پاریس همین چندی پیش), ساخت ابزارهای کنترل مغز (سراسر قانونی و نظارت شده) و جزآن.
Nilftrondheim نوشته: نوشتههایِ اینجا برای کسانیست که به جان و راحتی خود ارج مینهند. نه تنها اینجا، همه جا. خوب میدانیم که پس از 9/11 آمریکایی ها بین توش رکتال در فرودگاه و برخورد به برج کدام را انتخاب کردند.:e057:
فروآمدن به تراز حیوانات خانگی و داشتن زندگی گیاهی ایدهآلی جهانگستر نیست.
.
پیشرفت روزافزون فندآوری: به کجا میرویم؟ -
Mehrbod - 02-13-2016
Nilftrondheim نوشته: پست قبلی را ببینید.
ابتدا باید روشن کنید کدام یک از دو حالت در پست قبلی مد نظرتان است است. در ضمن هواپیما امن ترین وسیله نقلیه تاریخ بشر است.
در ساخت ابرهوشواره و در پرسمان تکینگی فندین (technological singularity), برآیند ِ قطعیت ٩٩.٩٩٩٩٩% یکسان است با برایند ِ قطعیت ٠.٠٠٠٠١%.
اهمّیتی ندارد چه اندازه پژوهشگران به کنترل ابرهوشواره
نزدیک شده باشند, تا زمانیکه این نزدیکی
١٠٠% نباشد, فرجام آن یکسان است با زمانیکه هیچ گونه سازوکار کنترلکنندهای از پایه پیادهسازی نشده باشد.
پس باری دیگر, اگر امنترین وسیلهیِ نقلیهیِ تاریخ بشر, پس از ٢٠٠≈ سال زمان برای بهکرد و پیشرفت, هنوز نتوانسته به قطعیتی هتّا نزدیک به ١٠٠%
برسد, آنگاه بروشنی ساخت و کنترل ابرهوشوارهای که میلیاردها میلیارد بار هوشمندتر از باهوشترین آدم زنده باشد, چیزی بجز خودفریبی نخواهد بود.
پ.ن.
--
The Importance of getting it right the first time and a centralized economy - Science & Technology of the Future - FutureTimeline.forum
Professor Stephen Hawking, Theoretical Physicist - The Theory of Everything - YouTube
Recently Stephen Hawking gave a talk about AI (linked above) in which he emphasized the importance of
"getting it right the first time" with regard to key technologies such as Artificial Intelligence, Synthetic Biology, and Nanotrchnology. He comes at this from the perspective of the story of intelligence as a story about information. However, in order to control information it cannot be free. It has to be contained somehow with security measures, restricted access, etc. First of all I would like to ask
"Is this even possible?" If you look at the story from the vantage of a network of evolving information, then based on the billions of years of history that we have as evidence we should expect at least two things.
1. Information entropy increases. There is no perfect closed system that can contain it indefinitely. Once it escapes it can replicate very rapidly.
2. The diversity and variety of information should continue to increase. The increase in entropy of information seems to be closely related to what we call intelligence. To try to curtail the process of increasing information entropy is to squelch the very intelligence we wish to create.
Secondly, in terms of a more pragmatic perspective. What political and economic systems would be necessary for a species to control these key technologies enough to ensure survival?
I don't think it would be capitalism because for example the short term profit in creating autonomous weapons systems would generally seem to outstrip the potential existential threat it creates such as we are seeing with the global warming bullshit from industry and the possible ramifications of genetically modified foods. Hawking directly references the need to curtail the weaponization of autonomous systems.
Wouldn't political and economic control have to become more centralized in order to control the spread of information regarding these key technologies in order to ensure survival?