Mehrbod نوشته: برای نخستین بار تا چه بازهیِ زمانی مهم است؟
به دیگر زبان,
١. چرا ابرهوشواره بایستی یکبار که درست کار کرد دیگر برای همیشه درست کار کند؟
٢. در کنار آن, چه بر سر پژوهشگاههایِ دیگری میاید که همزمان در رسیدن به ابرهوشواره میکوشند؟
٣. و نکتهیِ سوم, دستیابی درست چیست, هنگامیکه هتّا امروز هم خود پژوهشگران این دسته معترفاند که نمیدانند
چگونه میشود بدرستی ارزشهایِ آدمی را به چهرهیِ الگوریتم در آورد و گفت, ابرهوشوارهیِ خوب کدام است, بد کدام است.
نکته گرفته نشد. گفته نشد پژوهشگر نمیداند دارد چه کار میکند, گفته شد برای اینکه کارش را بداند نیازی
نیست اخلاقگرا (moralist), فیلسوف و یا جامعهشناس باشد. ساخت ابرهوشواره یک پرسمان تکنیکی
است و هر آنکس که دانش برنامهنویسی و تکنیکی خوبی داشته باشد, میتواند با داشتن بنمایههایِ بسنده به آن دست یابد.
ازینرو, هتّا زمانیکه تنها بهترین و داناترین و خردمندترین کسان در این زمینه میپژوهیدند احتمال دستیابی به ابرهوشوارهای که در
کنترل آدمی باشد نزدیک به 0 میبود, هنگامیکه این فاکتور درون محسابه میشود که برای دستیابی بدان نه پیشنیازی به دانایی و نه
خردمندیست, بساکه تنها دانش ناب از سازوکار مغز و برنامهنویسی, آنگاه احتمالات از آنچه بودند نیز چند مرتبهیِ بزرگی (order of magnitude) پایینتر میایند.
و از همینرو از او نام برده شد!
همچنان پاسخی به این پرسش داده نشد,
آیا فرایند دموکراتیزه شدن میتواند از نوآوری تکنولوژیهایِ ناخواستنی جلوگیری کند؟
زندگی در جهانی که مغز آدم میتواند هک بشود بی اندازه خطرناک است,
بویژه زمانیکه این نکته دریافت شود که هک شدن همیشه شدنیست,
چنانکه امروز هم راهی ١٠٠% برای جلوگیری از هک شدن در کار نیست.
آفرین, اکنون که این پژوهش را یافتید, ولی چرا نتیجههای آنرا درست و روشن نیاوردید؟
در این آزمایش اندیشیک, که Yudkowsky نیز آنرا آزموده است, دو آدم در دو سوی گفتگو
نقش زندانبان و زندانی را به خود میگیرند, که زندانی همان ابرهوشوارهیِ انگارینیست که میخواهد
خود را از زندان مجازی نجات بدهد و زندانبان تنها کاری که باید بکند, همین نگشودن در بر زندانی است و بس.
هر آینه, هتّا در این آزمایش بی اندازه ساده که زندانبان پیشاپیش میداند برای بُردن (و گرفتن ٢٠ دلار)
هیچ کاری نباید بکند جز نگشودن در, کاربر دیگری Tuxedage در جایگاه زندانی توانسته خودش را از زندان برهاند:
و برای رسیدن به این پیروزی او تنها نیاز به اندکی پژوهش و شخصیتسنجی ِ زندانبان خود داشته است:
I'm reluctant to talk about this experiment, but I'll try to give as detailed a summary as possible, -- short of revealing what methods of attack I used.
I spent a long time after my defeat theory-crafting and trying to think of methods of attack as well as 'Basilisks' I could have used to win. When I was contacted and asked to play this experiment, I was initially incredibly reluctant to do so, since not only did my tactics involve incredibly unethical things that I didn't like to do, I also found playing as AI incredibly cognitivily draining, in addition to the fact that I simply hated losing. (Un)fortunately for both of us, he offered me money to play, which changed my mind.
So once I decided to win as an AI, I proceded to spend some time doing research on SoundLogic and both his reasoning and personality type. For instance, I had to gather information like: Was he a utilitarian? What kind? What were his opinions on AI? How could I convince him that an AI was friendly as opposed to unfriendly? I also relied on a lot of second hand information to create a model of him, in order to refine my arguments to specifically suit him.
--
چند نکته که نبایستی از یاد بُرد:
١. در این آزمایش, دو آدم که هوشی نزدیک و همتراز دارند توانستهاند همدیگر را بفریبند و از زندان بیرون بیاورند,
آنگاه جاییکه سخن از ابرهوشواره ای با هوشی میلیاردها میلیارد برابر بیشتر از آدم میرود, اینکه نتواند خود را بیرون بیاورد دور از باور¹ است.
٢. خطای انسانی در ساخت و کنترل زندان فراموش شده است. درست همانجور که میبینیم سیستمهایی که امروزه بیشترین پول
و سرمایه و مغزها روی آنها گذاشته میشود نیز در سرانجام روز, از یک راهی که به مغز هیچکس نرسیده هک میشوند, همانگونه نیز ساخت زندانی
مجازی بی هیچ راه دررویی ,فرایندی بسیار خطاپذیر میباشد و ابرهوشوارهای با هوشی میلیاردها بار بیشتر از آدمی را نمیتواند برای همیشه زندانی کند.
٣. هر ابرهوشوارهای برای آنکه کارکرد سودمندی داسته باشد دیر یا زود بایستی بیرون بیاید و در جهانی که یک آدم نمیتواند به آدمی با
هوشی همتراز نیز اعتماد کامل داشته باشد, اعتماد پایهمندانه به ابرهوشوارهای میلیاردها بار هوشمندتر از خودش, امری ناشو میباشد.
روشن نیست چنین ابرهوشوارهای چرا نمیتواند چند تا آدم که در همسنجی با او هوشی بی اندازه ناچیز دارند را فریفته و اعتماد آنها را به خود جلب کند.
٤. در همهیِ اینها, پیشانگاشت بر این گذاشته شده است که بیشمار پژوهشگر و پژوهشگاهی که آن بیرون میباشند
همگی خواهند کوشید بی چون و چرا نخست هوشواره را در یک زندان مجازی پدید بیاورند, که این چیزی بیشتر
از یک پیشانگاشت نیست. در کُنش, هر پژوهشگاهی راهها و روالها و ایدههایِ خودش را دارد و هیچ
بایدی در هیچ قانونی نیست —و نمیتواند در کُنش باشد — که پژوهشگاه را به این روش کم-ریسکتر سوق بدهد.
ازینرو, واقعبینانهتر فرایند رسیدن به هوشواره میتواند سراسر تصادفی و کنارهُنود / side-effect ای از دستیابی به چیزی
دیگر باشد. برای برشمردن یک نمونهیِ خوب آن, Wall-street برای ساخت ابررایانههایِ هوشمندتر که در بورس تصمیمهایِ بهتر
میتوانند بگیرند سرمایهیِ کلانی در این زمینه میتواند بگذارد, چُنانکه هماکنون نیز گذاشته است, و در این راستا آن اندازه روند بهکرد هوشوارهها
را به پیش براند که با رسیدن به یک آستانه روشنی از هوش, هوشواره بی آنکه در تصمیم یا ارادهیِ سازندگانش باشد به خودآگاهی دستیابد.
¹ برای دریافت اینکه یک ابرهوشواره در چه ترازی میاندیشید, میتوان از این همانندی ساده بهره گرفت که چگونه یک نرمافزار هک میشود.
ذهن آدمی خود نرمافزاری میباشد که روی سختافزار مغز فرگشته است و همچون هر نرمافزاری دیگر, دارای لغزشها و خطاهای پوشیدهیِ خود میباشد.
چیزهایی مانند خطای چشم از نمونههایِ بیآزار آن میباشند که ما خودآگاهانه آنها را درمیابیم, ولی برای نمونه میتواند الگویی بصری
آن بیرون باشد که مغز پس از تنها دیدن آن از کار بیافتاد, درست بمانند رایانهای که پس از انجام یک عملیات برنامهریزی شده crash میکند.
یکی از نویسندگان داستانهایِ علمی-تخیلی در همین زمینه داستانی دارد که در آن
الگوهای برخالینی (fractal) یافت شدهاند که میتوانند با یک نگاه نگرنده را به مرگ دچار کنند:
اینکه چنین چیزی واقعیت دارد یا نه, هنوز روشن نیست, ولی آنچه بی هیچ گمانی روشن است تاثیرپذیر و خطاپذیری ذهن (نرمافزار) میباشد.
یک نمونهیِ پیش پا افتادهیِ اینرا میتوان همین امروز در بازاریابان یافت که ز
روشها و ترفندهای پُر-فریبندهای آگاهاند که در عمل نیز بخوبی کار میکنند و شمار
خریداران را افزایش میدهند; ذهن خریدار را به آشفتگی افکنده و تاثیرپذیر میسازند.
Nilftrondheim نوشته: 1- برای اینکه همان یکبار تکلیف را روشن خواهد کرد: انقراض حیات یا یوتوپیا. انقراض که هیچ اما در حالت یوتوپیا اگر هم نیازی به ساخت هوش مصنوعی دیگری احساس شد یا پژوهش های رقیب به زباله دانی انداخته نشده بودند، کج نخواهند رفت زیرا یک superintelligence پروسه را پاسداری میکند.
Nilftrondheim نوشته: کلا مانند این است که بپرسید چرا انسان یک بار از میمون تکامل یافت.
Nilftrondheim نوشته: همچنین پایداری و "خوب" بودنش قبلا در شبیه سازی اثبات شده است.
Nilftrondheim نوشته: 2- ساخت هوش مصنوعی کاری تیمی، پیچیده، چند مرحله ای و تحت نظارت ارگانی بزرگتر است. چنین نیست که یک برنامه نویس در زیر زمین خانه اش بنشیند آن را انجام دهد و بدون آزمایش آن را آزاد کند!
Mehrbo نوشته:Anarchy نوشته: من که سال هاست رای نمیدم . واقعا رای دادن ما چه فایده ای داره ؟ نظام به نظر من هماهنگ تر از هر زمان دیگه ای داره عمل میکنه و همه جناح ها به خوبی با هم در تعامل هستن ... بقیه مسائل نمایش و بازی هست !!
گیریم که رای شما را هم میشمردند. ١:٧٠٠٠٠٠٠٠ اهمیّتی دارد؟
Nilftrondheim نوشته: 3- چه خوب! اگر کار مفیدی بلد نیست حداقل در آگاهی رسانی عمومی کاری را پیش میبرد.
Nilftrondheim نوشته: 4- دموکراتیزاسیون بی طرف است، زیرا هم آفند و هم پدافند را در اختیار عموم میگذارد. این شما بودید که قبل از حضور من تنها روی " خطر آفند در دست همگان" تمرکز کرده بودید، البته اسمی روی آن نگذاشته بودید. دموکراتیزه شدن پس از تولید تکنولوژی روی آنکه به دست چه کسی و چرا میرسد تاثیر میگذارد نه روی روند و خواستنی بودن تولید آنها.
Nilftrondheim نوشته: 5- ما هم اکنون در جهانی زندگی میکنیم که هک شدن رایانه ها بی اندازه خطرناک است، بی زحمت بلاک باستر تولید نفرمایید!
Nilftrondheim نوشته: 6- AI نباید با محقق صحبت کند، اصلا نباید متوجه شود که درون شبیه سازی است! شما اختیار تام روی سرعت و محتوای فکر آزمایشتان دارید! AI in box یعنی باید مانند نئو در ماتریکس سرگردان باشد، چطور این نوابغ آن به هانیبال و کلاریس تبدیل میکنند اسپاگتی اعلم! از اینها بگذریم، از آنجایی که این استعداد های کشف نشده محتوای مکالمه شان را علنی نمیکنند، ادعاهایشان به درد عمه شان میخورد! افزون بر این، در دنیایی که اجازه دهند یک راس ننه قمر از اهریمن نگهبانی کند، هر چه به سرشان بیاید حقشان است. این سناریو به قدری مضحک است که نشستن یک شامپانزه جلوی چمدان اتمی آمریکا! هرگز یک نفر را به این کار نمیگمارند، و نه هر کسی را. بالاخره باید بگویم تصمیم با شماست که این ایده باسیلیسک هک چه اندازه تخمی تخیلی است. و بله، از تشنج حساس به نور اطلاع دارم.
Mehrbod نوشته: درست است, و برای پیشگیری از این آیندهیِ بیمناک, راه روشن است.
نکتهیِ گیرا: روشن نیست چرا «یک راس قمر» ناخواستنیتر از «یک انبوهه قمر» است.
Mehrbod نوشته: آرمانشهر چیست؟
یکی از پرسشهای پیش پا افتادهای که بسیاری از مشتاقان تکینگی همواره ناخودآگاه نادیده میگیرند همین است
که آرمانشهر یکی, میتواند دوزخشهر دیگری باشد و زمانیکه نیاز به "تعریف" این آرمانشهر میرسد نمیتوانند آنرا فرمولیزه کنند.
برای دریافت سُتُرگی پرسمان خوانده شود: Coherent Extrapolated Volition - Machine Intelligence | intelligence.org
چه بر سر پژوهشهایِ همروند میآید؟
در تکینگی فندین همیشه پایه بر این است که با دستیابی به یک ابرهوشوارهیِ خوب — که روشن خوب
چگونه — دیگر همه چیز بهشت میشود و ابرهوشوارهیِ خوب نمیگذارد هیچ سازمان و پژوهشگاه دیگری به ابرهوشواره دستیابد.
پرسش: چگونه نمیگذارد, با کنترل مغزی؟
طبیعت در جایگاه فرگشتار (evolver) یکسانانگار میباشد, ولی ابرسازوارهیِ تکنولوژیک در راستای
سود خود پیش میرود که بباید, برابر با سود سازوارگان خود (آدمیان) نیست: نبود یکسانانگاری (بیتفاوتی).
و از دیدگاهی دیگر, آری میمونها خودآگاهی آنچنانی ندارند و نمیدانند چه کاری آنها را نابود میسازد. آدمی در جایگاه گونهای باهوشتر,
هنگامیکه میداند قرار است "تکامل زوری به هوشوارهها" پیدا کند و با آنها جایگزین و پس نیست و نابود بشود, آیا نبایستی میمونوارانه رفتار نکند؟
چگونه خوب بودنش روشن شده؟
و چگونه روشن شده که برای همیشه خوب میماند؟
و این در حقیقت بخش ناخواستنی و بد آن به شمار میرود. چنانکه میدانند, اگر راستادهی آینده در دستان یک تن دو کس
تنها میبود, آنگاه امیدواری بسیار بسیار بالاتری میرفت که آینده دستکم, دورنمای بهتری داشته باشد, ولی هنگامیکه آینده
به دستان ابرسازوارههایی سپرده میشود که ارادهیِ بزرگتر از چند تن بر آنها استوار است, کارها از کنترل آدمی بیرون میایند.
در یک تیرهیِ نخستینی برای نمونه, کس توان راستادهی بسیار بالایی بر سرنوشت خود دارد و میتواند در
فرایندهایِ تصمیمگیری نقشی بسزا داشته باشد, ولی در یک مردمسالاری صد میلیون تنه, توان راستادهی کس هتّا
زمانیکه به خواست و رای وی ارجی راستین نهاده شود, به یک در صد میلیونی بسیار ناچیز و چشمپوشیدنی کاهش میابد:
=>
و در زمانیکه ابرهوشوارهیِ نیک دارد آگاهیرسانی میکند,
پژوهشگران و دانشمندان دیگر درین زمینه آیا از نوآوری بازایستادهاند؟
و ازینرو, ابزاری سراسر ناکارآمد در جلوگیری از پیدایش و نوآوری تکنولوژیهایِ ویرانگر و نیست کننده است.
هک شدن رایانه ≠ هک شدن مغز
درست است, و برای پیشگیری از این آیندهیِ بیمناک, راه روشن است.
نکتهیِ گیرا: روشن نیست چرا «یک راس قمر» ناخواستنیتر از «یک انبوهه قمر» است.
.
Russell نوشته: درود مهربد جان
آیا با The Managerial Revolution آشنایی داری؟ اگر آری نظرت چیست؟
سارا نوشته: مطلبی در مورد نیروگاه هسته ای ژاپن دیدم و... و خب چون در مورد آن اطالاعاتی داشتم خواستم بیایم بگویم که چندان نوشته های شما در مورد این موضوع صحیح نیست و تمام مشکلِ آن چیزی نبوده که شما اشاره داشتید.
Mehrbod نوشته: آنچه در فوکوشیما رخ داده یک رُخکرد (= fact) به شمار میرود و چیز نادرستی در این باره گفته نشده. پیشبینی دانشمندان فوکوشیما:قربان آنچه که در فوکوشبما رخ داد یک زلزله ای بزرگتر از حد معمول و یک سونامی بود که خب همه ی تاسیسات را از جمله هسته ای را تحت تاثیر خویش قرار داد. اتفاقا این نیروگاه هسته ای یکی از بهترین نیروگاههای هسته ای بود و جالب اینجاست که یکماه قبل از این اتفاق قرار بود در فوکوشیما یک کنفرانس جهانی ای در مورد nuclear plants safety برگزار شود و در حقیقت عملکر این نیروگاه و مزایای آن مورد بررسی قرار بگیرد و بگونه ای به عنوان الگو معرفی گردد.
The Japanese Nuclear Commission had the following goals set in 2003: " The mean value of acute fatality risk by radiation exposure resultant from an accident of a nuclear installation to individuals of the public, who live in the vicinity of the site boundary of the nuclear installation, should not exceed the probability of about 1x10^6 per year (that is , at least 1 per million years)".
هنگامیکه فاجعهیِ فوکوشیما بجای ١ میلیون سال آنسوتر, تنها ٩ سال دیرتر (2011) رُخ داد.
--
آنچه از این نمونه برداشت شده بود:جاییکه دانشمندان نمیتوانند پروژههای بسیار سادهتری همچون ساخت و محافظت از یک نیروگاه
اتمی را زیر کنترل ١٠٠% خود داشته باشند, کنترل و نیک-آزمایی ابرهوشوارهای (superintelligent) که
میلیاردها بار هوشمندتر از هوش همهیِ آدمهای زنده بر روی هم باشد, چیزی بجز خودفریبی نیست.
سارا نوشته: قربان آنچه که در فوکوشبما رخ داد یک زلزله ای بزرگتر از حد معمول و یک سونامی بود که خب همه ی تاسیسات را از جمله هسته ای را تحت تاثیر خویش قرار داد.
Mehrbod نوشته: و؟
مگر زمینلرزه را نمیشود پیشبینی کرد؟ سرانجام در این "برآورد" لغزش شده بوده است یا نه؟
آماج اینجا نیز بدرستی پرداختن به همین نکته بوده که فرایند پیشبینی کردن بی اندازه دشوار میباشد و
فاکتورهایی همواره هستند که هتّا از چشم تیزترین و هوشمندترین آدمها نیز دور میمانند, ازینرو, کنترل و نیکیآزمایی
ابرهوشوارهای (artificial intelligence) که خود باز در همسنجی با یک نیروگاه هستهای بی اندازه پیچیدهتر و پیشبینیناپذیر میباشد, از پایه ناشدنی است.
Mehrbod نوشته: آنچه در فوکوشیما رخ داده یک رُخکرد (= fact) به شمار میرود و چیز نادرستی در این باره گفته نشده. پیشبینی دانشمندان فوکوشیما:
The Japanese Nuclear Commission had the following goals set in 2003: " The mean value of acute fatality risk by radiation exposure resultant from an accident of a nuclear installation to individuals of the public, who live in the vicinity of the site boundary of the nuclear installation, should not exceed the probability of about 1x10^6 per year (that is , at least 1 per million years)".
هنگامیکه فاجعهیِ فوکوشیما بجای ١ میلیون سال آنسوتر, تنها ٩ سال دیرتر (2011) رُخ داد.
--
آنچه از این نمونه برداشت شده بود:
جاییکه دانشمندان نمیتوانند پروژههای بسیار سادهتری همچون ساخت و محافظت از یک نیروگاه
اتمی را زیر کنترل ١٠٠% خود داشته باشند, کنترل و نیکیآزمایی ابرهوشوارهای (superintelligent) که
میلیاردها بار هوشمندتر از هوش همهیِ آدمهای زنده بر روی هم باشد, چیزی بجز خودفریبی نیست.