دفترچه

نسخه‌ی کامل: پیشرفت روزافزون فندآوری: به کجا می‌رویم؟
شما در حال مشاهده نسخه آرشیو هستید. برای مشاهده نسخه کامل کلیک کنید.
صفحات: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44
Secular نوشته: گرامی ! بگذار منم جور دیگه ای بگم! فرض کنیم شما همه دانشمندانی که دارن روی اون دستگاه کار می کنند رو کشتین! آیا بازم تضمینی هست که دانشمندای دیگه ای جایگزین اونا نشن؟ و اگه کشتن تنها راه حل این مسئله باشه پس باید یک بکش بکش تمام نشدنی راه بیفته!

آفرین, سخن شما درست است و این همان افسارگریختگی تکنولوژی میباشد که از آن سخن برده شده.

آماج کازینسکی نیز از سَهم‌گری (terrorism) همین بود که بتواند روزنامه‌هایِ آن زمان را وادار کند آرمان‌نامه‌یِ زیر را چاپ کنند:
Industrial Society and Its Future


در همان پاراگراف‌هایِ آغازین آرمان‌نامه آمده:

Take us (FC) for example. If we had never done anything violent and had submitted the present writings to a publisher, they probably would not have been accepted. If they had been been accepted and published, they probably would not have attracted many readers, because it’s more fun to watch the entertainment put out by the media than to read a sober essay. Even if these writings had had many readers, most of these readers would soon have forgotten what they had read as their minds were flooded by the mass of material to which the media expose them. In order to get our message before the public with some chance of making a lasting impression, we’ve had to kill people.

Transcendence نوشته: من چند سوال از جناب مهربد دارم.
1)سیستم تکنولوژی غیر قابل کنترل است.چرا؟

افسارگریختگی سیستم از این ریشه میگیرد که بسیار پیچیده و بزرگ است و راستادهی آن در توان آدمی نیست.

یک نمونه‌یِ پیش پاافتاده ولی گویا, آیا امروزه هیچکس, یا هیچ گروهی, یا هیچ کشوری هتّا!,
میتواند از ساخت بمب اتم یا جنگ‌افزارهای بیولوژیکی یا بهمان تکنولوژی دیگر, در سرتاسر جهان پیشگیری کند؟

پاسخ بآشکاری نه میباشد. روشن است کسی تک و تنها هیچ کاری نمیتواند بکند, ولی خب برای نمونه
کس میتواند با پیوستن به این گروه‌های اتم-ستیز یا جنگ‌افزار-ستیز رای بیشتری برای حزب خود گرد بیاورد و شاید هتّا
پس از دهه‌ها تکاپو موفق شود از ساخت یکی از این تکنولوژی‌ها در کشور خود پیشگیری کند, ولی هتّا این نیز
پیروزی‌ای گذرا و ناپایدار خواهد بود. چه که پس از چند سال همه‌یِ کابینه‌یِ دولت جابجا و جایگزین خواهند
شد و یا هتّا چند سال آنسوتر از بیخ دولت نویی میتواند سر کار بیاید و همه‌یِ رشته‌ها را یک شبه پنبه خواهد کرد.

هر آینه این روند در یک گروه کوچک — که بیشتر روند فرگشت را آدمی در گروه‌های نخستینی و همانندی گذرانده — پابرجا نیست.



Transcendence نوشته: 2) ایا دلایل قاطعی دارید ،مبنی براینکه سیستم تکنولوژی نهایتا منجر به نابودی ادمیان میشود؟

آری, در جُستار بیشتر به این‌ها پرداخته شده است. نکته‌ای که نبایستی از یاد بُرد,
تکنولوژی میتواند به نابودی "آدمیت" نیز بیانجامد, یعنی به ساخت آدم‌هایی بیانجامد که
همه‌یِ آزادی‌ها آنها گرفته شده است و فرآورده‌یِ ژنتیکی و دستکاری شده‌یِ سیستم میباشند.

در این جُستار پیشتر بژرفی به همه‌یِ آینده‌هایی که تکنولوژی در بر
دارد پرداخته شده است و هیچ کدام از آنها برای آدم خواستنی نبوده است.



Transcendence نوشته: 3)سیستم تکنولوژی بر اساس چه اصولی می باشد که تا این حد غیر قابل نفوذ می باشد؟

سیستم تکنولوژیک از قانون‌هایِ فیزیکی پیروی میکند, درست همانگونه که خود آدم یک
سیستم یا سازواره (organism) میباشد که از ≈٤ تریلیون یاخته درست شده است, سیستم تکنولوژیک
هم یک سازواره یا بهتر بگوییم, یک ابرسازواره (superorganism) میباشد که از ٧≈ بیلیون آدم ساخته شده است.

و نیز بوارونه, سیستم تکنولوژیک بمانند هر سیستم پیچیده‌یِ دیگری شکننده است.
درست همانجور که مغز یکی از سُست‌گاه‌های آدم به شمار میرود که با یک ضربه او
را ناکار میکند, سیستم تکنولوژیک نیز سست‌گاه‌هایِ و آسیب‌گاه‌هایِ خودش را دارد.

نکته‌ای که اینجا پُرگاه ولی بخوبی گرفته نمیشود این میباشد که راستادهی برابر با نابودسازی نیست. یعنی اگرچه
آدمی را میتوان با یک ضربه به گیجگاهش از پا درآورد, ولی راستادهی همان آدم نیاز به کاربرد نیرو و انرژی بسیار بسیار بیشتری دارد.

اگر از دیدگاه یک یاخته درون پیکر نیز نگریسته شود, یک یاخته میتواند بتنهایی از راه سرطانی شدن همه‌یِ سازواره
را از پا در بیاورد, ولی همان یک یاخته نمیتواند هرگز بتنهایی سازواره را کنترل نماید, هتّا اگر یاخته‌یِ مغزی باشد:
سیستم تکنولوژیک را میتوان از پا در آورد, ولی نمیتوان به آن راستا بخشید.



Transcendence نوشته: 4)آیا ارتباطی بین سیستم تکنولوژی و نهیلیسم وجود دارد؟

از دید روانشناسی و جامعه‌شناسی, امروز آدمی در زیستبومی زندگی میکند که از آنچه در آن فرگشته
بسختی متفاوت است. این تفاوت در پیدایش بیماری‌هایِ روانی گوناگون, از جمله پوچی‌گرایی بیگمان نقش بسزایی
داشته است, بویژه زمانیکه به این نکته نگریسته میشود که در تیره‌های نخستینی پدیده‌ای مانند خودکشی هتّا
دیده نمیشده/نمیشود, هنگامیکه در جهان امروز در پیشرفته‌ترین کشورهای تکنولوژیک, مانند ژاپن, آمار آن سر به آسمان میکشد.




Transcendence نوشته: 5)درصورت توقف سیستم تکنولوژی چه روشی برای تحقق آرمان ها و ایده آل های بشری معرفی می کنید؟

این را میتوان به آیندگان واسپرد. آنچه در گفتمان تکنولوژی اهمیت دارد پیشگیری از بدتر
شدن شرایط و به روز سیاه افتادن و نیست شدن و جایگزین شدن با روبات‌هایِ هوشمند است.








.
Transcendence نوشته: آتیسم به معنای فقدان باور به خدا یا خدایان می باشد.یک آتیست احتمال وجود خدایان را پایین ارزیابی می کند و چنین موجوداتی را در زندگی موثر نمی داند.خوب مسلما کسی که نظارت و کنترل خدایان را نمی پذیرد احساس آزادی می کند و البته در مسائل و مشکلات زندگی در برابر خدایان سر تعظیم فرود نمی اورد و ذکر وثنای انان را نمی گوید و دعا وندبه وناله نمی کند(غلبه بر ضعف واحساس قدرت) و به دنبال شناخت واقع بینانه از خود وطبیعت است(احساس عقلانی بودن(.
نهیلیسم انچنان که من درک می کنم به معنای فقدان ارزشی بنیادین برای زندگی و وجود ادمیان می باشد.یک نهیلیست می تواند خداباور یا بی خدا با شد.البته نهیلیسم را می شود در اخلاق و وجود شناسی و شناخت شناسی نیز بررسی کرد.


نقل قول:خوب شاید سوال درست این باشد که ارتباط بین تکنولوژی و نهیلیسم چه می باشد.
چرا بشر سیستمی را بنیان نهاده است که نهایتا منجر به نابودیش می شود.
اگر این سیستم نهایتا منجر به نابودی بشر است چرا ما در برابر پیشروی و توقف آن ناتوانیم.

بشر از روی مرگ‌رانه یا گرایش درونی به پوچ‌گرایی یا با خواست درونی سیستمی که او را بخواهد نابود کند را درست نکرده است,
بساکه بسادگی, چیزها رفته رفته پیچیده‌تر و پیشرفته‌تر شده و از کنترل او بیرون رفته‌اند. در حقیقت تا همین چند سده پیش آدمی
کنترل بسیار بالایی بر سرنوشت و زندگی خودش داشت, زیرا تکنولوژی هنوز این اندازه پیشرفته نشده بود, راه‌هایِ ارتباطَی
هنوز این اندازه گسترده نشده بود و ابزارهای نظارت, کنترل و مدیریت هنوز به این پیچیدگی نرسیده بودند که امروز داریم.

در سوی دیگر, سیستم تکنولوژیک در پی نابودی آدمی نیست, بساکه روند طبیعی خودش را می‌پیماید. آنچه ولی به سود
آدمی نیست همین پیموده شدن روند طبیعی چیزهاست. برای نمونه روند طبیعی کنونی این است که رایانه‌ها دارند روز بروز
هوشمندتر میشوند و بزودی از آدمی در همه‌یِ زمینه‌ها برتر خواهند شد, روند ناطبیعی‌تر و سخت‌تر این است که خود آدمی
روز به روز هوشمند بشود. هر آینه, از آنجاییکه سیستم تکنولوژیک بسیار بزرگ, بسیار پیچیده و بسیار سنگین میباشد, در توان هیچکس نیست
که این روند را به سودی آدمی وارونه بکند و ازینرو, اینکه سرانجام چه میشود یک قمار کور با احتمالات بسیار بسیار بیمناک روی این خواهد
بود که کدامیک زودتر به واقعیت میپیوندد: روبات‌های هوشمند زودتر ساخته بشوند, یا اینکه نه ابزارهای هوشمندسازی آدمی ساخته بشوند.

اگر شرایط در کنترل آدمی میبودند, آنگاه بروشنی اینجا گزینه‌یِ دوّم نیز نخست به واقعیت میپوست; ولی از آنجاییکه در
کنترل آدمی نیستند, آنچه آسانتر و هموارتر باشد زودتر نوآوری خواهد شد که در این مورد, پیدایش ابرهوشواره‌ها میباشد.
Mehrbod نوشته: خواننده اینجا میتواند به این نکته نگاه کند که این نظارت در عمل چه اندازه ناکارآمد بوده است و چه اندازه بیهوده.
برای نمونه امروزه بسیاری قانونی در آزمایشگاه‌ها سرگرم ساخت ابزارهای کنترل مغزی میباشند و کسی هم نمیتواند بر اینها نظارت کند.

لطفا بیشتر در مورد این تکنولوژی ها توضیح دهید. کی؟ کجا؟ چطور؟
زیرا ابتدا میخواهم بدانم

Ouroboros نوشته: «آیا حقیقت دارد»؟

سپس

Ouroboros نوشته: «به چه کاری می‌آید؟»

E404


Mehrbod نوشته: چرا نیست؟

به دلایلی که قبلا گفته شد: surveillance, countermeasures, redundancy, etc
میلیاردها نفری که از این کار آسیب خواهند دید مترسک نیستند.

Mehrbod نوشته: اگر با تبدیل شدن به یک روبات که همه‌یِ آزادی‌ها او گرفته است گرفتاری ندارید, پس نیاز آنچنانی هم به ستیز با سیستم نخواهید داشت.
نوشته‌هایِ اینجا برای کسانی‌ست که به آزادی و خودگرانی خود ارج مینهند.

خوب شد پیشگیری کردم! Nope.

Nilftrondheim نوشته: "حریم شخصی زیر مجموعه آزادی قرار میگیرد." خیر! شما آزادید هر کار مجازی بکنید، زیر نظر 100 دوربین بودن این آزادی را از شما صلب نمیکند.

نوشته‌هایِ اینجا برای کسانی‌ست که به جان و راحتی خود ارج مینهند. نه تنها اینجا، همه جا. خوب میدانیم که پس از 9/11 آمریکایی ها بین توش رکتال در فرودگاه و برخورد به برج کدام را انتخاب کردند.:e057:
Mehrbod نوشته: یک ابرهوشواره که هوشی بگوییم یک میلیون برابر بیشتر از همه‌یِ آدمها روی
هم دارد از پایه کنترل‌ناپذیر است و میتواند بآسانی برنامه‌یِ خودش را از نو بازنویسی نماید.

اگر امروزه رایانه‌ها همان کاری را میکنند که به آنها گفته میشود تنها و تنها ازینرو ست که هوش بسیار پایین و پس کنترل‌پذیری دارند.

تکلیف را روشن کنید، به کدام دلیل AI (و شاید nanotech) خطرناک میباشند؟ دو حالت زیر جمع پذیر نیستند!

- میتوان آن ها را کنترل کرد و جهت داد. در این صورت به همان بحث benevolence برمیگردیم که باید اولین یا اولین ها "خوب ها" باشند تا پس از آن مشکلی پیش نیاید. فکر کنید پروژه منهتن را اول بار نازی ها یا شوروی اجرا میکردند چه میشد!!!

:e420:.If it can be done, someone's gonna do it. Let's make sure they're the good guys

- نمیتوان آن ها را کنترل کرد و جهت داد. اینها اساسا ناپایدار و غیر قابل پیش بینی هستند و هر گونه استفاده از آنها منجر به آخرالزمان میگردد. در اینجا دو چیز باید روشن شود:

- آیا ناپایدار الزاما به معنی مخرب است؟
از بحث محبوب روانپزشکی مثال بزنم. یک اسکیزوفرن نمیتواند قاتل زنجیره ای باشد. یک سایکوپت میتواند. حتی مخرب بودن نیز نیاز به پایداری و هدفمندی دارد.

- آیا اسکای نت دم در ایستاده است؟ طوری از این تکنولوژی ها سخن میگویید گویا همین فردا اتفاق خواهد افتاد! ما هنوز نتوانسته ایم 302 نورون یک کرم را شبیه سازی کنیم، چطور انتظار دارید بشر چیزی در این حد پیچیده بسازد سپس نتواند آن را کنترل کند؟ هوش مصنوعی را 30 سال بعد دانشمندانی مجهز به Nootropics و Neural Augmentations خواهند ساخت، کسانی که تفاوت زیادی با آن ندارند!

Mehrbod نوشته: زندگی در طبیعت بروشنی خوبی‌ها و بدی‌ها و همچنین خطرهای خودش را دارد.

کدام خوبی؟ امید به زندگی 25 سال؟
Mehrbod نوشته: ساخت یک ابرهوشواره — با هوشی میلیون‌ها بار بیشتر از همه‌یِ آدمها روی هم — با این امید
که همان کاری را بکند که آدمی در برنامه‌ریزی او ریخته است چیزی بیشتر از خودفریبی نیست,

پست قبلی را ببینید.

Mehrbod نوشته: بویژه زمانیکه میبینیم آدمی از ساخت یک هواپیما که ریسک زمین افتادن آن 0 باشد نیز ناتوان است.
Mehrbod نوشته: یک نمونه از طراحی هوشمندانه که نزدیک به ≈٢٠٠ سال آدمی برای فرزافتن (perfect) آن زمان داشته است:

ابتدا باید روشن کنید کدام یک از دو حالت در پست قبلی مد نظرتان است است. در ضمن هواپیما امن ترین وسیله نقلیه تاریخ بشر است.E412
از مجموع بحث ها،نتایج زیر رو گرفتم.
سیستم تکنولوژی #ابزار تکنولوژی(تصور اکثریت )
ابزارهای تکنولوژی محصول سیستم می باشند .
کنترل بر روی ابزارهای تکنولوژی امکان پذیر می باشد(فعلا)ولی ما کنترلی بر روی سیستم نداریم.(سیستم ذاتا کنترل گریز است)
در سیستم تکنولوژی انسان به سیستم وابسته و سیستم از انسان مستقل خواهد شد.
(زمانی را در نظر بگیرید که ما هیچ نقشی در فرایند تولید مثل نداشته باشیم)
سیستم تکنولوژی به ما به عنوان موجودات غیرضروری نگاه می کنه!
سیستم تکنولوژی در حال تخریب و پوچ سازی تمام سیستم های انسانی است(مرد سالاری یا زن سالاری یا مذهب وغیره...به وسیله سیستم نابود خواهد شد.)
هر قدمی که در این سیستم به جلو بر می داریم کارایی تکنولوژی بیشتر و کارایی ما ناچیزتر.
هر قدمی که در این سیستم به جلو بر می داریم سیستم از ما مستقل تر و ما به سیستم وابسته تر.
هر قدمی که در این سیستم به جلو بر می داریم وجود تکنولوژی ضروری تر و وجود ما غیر ضروری تر.
نهایتا زمانی فراخواهد رسید که وجود ما از نظر سیستم غیر موجه (هوش ودقت وقدرت پایین وبیماری و...)
و غیر ضرور می شود (جایگزین های مناسبتری موجود می باشد).
سیستم در ما نیازهایی ایجاد می کنه و ما برای رفع آن تلاش می کنیم در حالی که حقیقتا سودی برای ما ندارد و به درد سیستم می خورد.

Nilftrondheim نوشته: لطفا بیشتر در مورد این تکنولوژی ها توضیح دهید. کی؟ کجا؟ چطور؟
زیرا ابتدا میخواهم بدانم

نیم‌نگاهی به آلودگی‌های زیستبوم (بی‌اثری نظارت‌ها), ساخت جنگ‌افزارهای گوناگون (بی‌اثری نظارت‌ها), تازش‌هایِ
تروریست‌ها (پاریس همین چندی پیش), ساخت ابزارهای کنترل مغز (سراسر قانونی و نظارت شده) و جزآن.





Nilftrondheim نوشته: نوشته‌هایِ اینجا برای کسانی‌ست که به جان و راحتی خود ارج مینهند. نه تنها اینجا، همه جا. خوب میدانیم که پس از 9/11 آمریکایی ها بین توش رکتال در فرودگاه و برخورد به برج کدام را انتخاب کردند.:e057:

فروآمدن به تراز حیوانات خانگی و داشتن زندگی گیاهی ایده‌آلی جهانگستر نیست.






.
Nilftrondheim نوشته: پست قبلی را ببینید.


ابتدا باید روشن کنید کدام یک از دو حالت در پست قبلی مد نظرتان است است. در ضمن هواپیما امن ترین وسیله نقلیه تاریخ بشر است.E412

در ساخت ابرهوشواره و در پرسمان تکینگی فندین (technological singularity), برآیند ِ قطعیت ٩٩.٩٩٩٩٩% یکسان است با برایند ِ قطعیت ٠.٠٠٠٠١%.

اهمّیتی ندارد چه اندازه پژوهشگران به کنترل ابرهوشواره نزدیک شده باشند, تا زمانیکه این نزدیکی
١٠٠% نباشد, فرجام آن یکسان است با زمانیکه هیچ گونه سازوکار کنترل‌کننده‌ای از پایه پیاده‌سازی نشده باشد.


پس باری دیگر, اگر امن‌ترین وسیله‌یِ نقلیه‌یِ تاریخ بشر, پس از ٢٠٠≈ سال زمان برای بهکرد و پیشرفت, هنوز نتوانسته به قطعیتی هتّا نزدیک به ١٠٠%
برسد, آنگاه بروشنی ساخت و کنترل ابرهوشواره‌ای که میلیارد‌ها میلیارد بار هوشمندتر از باهوشترین آدم زنده باشد, چیزی بجز خودفریبی نخواهد بود.




پ.ن.
--


The Importance of getting it right the first time and a centralized economy - Science & Technology of the Future - FutureTimeline.forum

Professor Stephen Hawking, Theoretical Physicist - The Theory of Everything - YouTube

Recently Stephen Hawking gave a talk about AI (linked above) in which he emphasized the importance of "getting it right the first time" with regard to key technologies such as Artificial Intelligence, Synthetic Biology, and Nanotrchnology. He comes at this from the perspective of the story of intelligence as a story about information. However, in order to control information it cannot be free. It has to be contained somehow with security measures, restricted access, etc. First of all I would like to ask "Is this even possible?" If you look at the story from the vantage of a network of evolving information, then based on the billions of years of history that we have as evidence we should expect at least two things.

1. Information entropy increases. There is no perfect closed system that can contain it indefinitely. Once it escapes it can replicate very rapidly.

2. The diversity and variety of information should continue to increase. The increase in entropy of information seems to be closely related to what we call intelligence. To try to curtail the process of increasing information entropy is to squelch the very intelligence we wish to create.


Secondly, in terms of a more pragmatic perspective. What political and economic systems would be necessary for a species to control these key technologies enough to ensure survival?

I don't think it would be capitalism because for example the short term profit in creating autonomous weapons systems would generally seem to outstrip the potential existential threat it creates such as we are seeing with the global warming bullshit from industry and the possible ramifications of genetically modified foods. Hawking directly references the need to curtail the weaponization of autonomous systems.

Wouldn't political and economic control have to become more centralized in order to control the spread of information regarding these key technologies in order to ensure survival?

صفحات: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44