دفترچه

نسخه‌ی کامل: پیشرفت روزافزون فندآوری: به کجا می‌رویم؟
شما در حال مشاهده نسخه آرشیو هستید. برای مشاهده نسخه کامل کلیک کنید.
صفحات: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44
Mehrbod نوشته: چیزی به نام آزادی مطلق در کار نیست, در جنگل و در طبیعت سبز هم آزادی مطلقی‌ در کار نبوده و نیست.آزادی ولی مرز دارد و مرز آزادی در جامعه‌یِ تکنولوژیک در ابعادی (گُستراهایی) که اهمیت دارند روز به روز کمتر شده و در ابعادی که هیچ اهمیت سرنوشت‌سازی ندارند, روز به روز بیشتر میشود.برای نمونه, امروزه کس آزاد است هر آنجور که میپسندد لباس بپوشد, با هر آن کس و به هر آن شیوه‌ای که دوست دارد سکس داشته باشد, هر جور آهنگی میخواهد گوش بدهد, هر جا میخواهد سفر کند و .. و...هر آینه, هنگامیکه سخن از آزادی‌هایِ راستین و معنادار میروند, آزادی‌هایی که در آینده و سرنوشت آدمی نقش دارند, برای نمونه اینکه چه جنگ‌افزارهایی ساخته بشوند یا نشوند, ابزارهای کنترل مغز ساخته بشوند یا چگونه از آنها بهره‌بردار بشود, کس از هیچگونه آزادی‌ای برخوردار نیست و نمیتواند برخوردار باشد, بسادگی و با بهره‌گیری از همانندیِ پیکر خود آدمی, درست همانجور که که اگر هر یاخته بخواهد خودسر و خودرای باشد, پیکر آدمی در کوتاه‌ترین زمان از هم فروخواهد پاشید و گرفتار سرطان و هزار و یک بیماری دیگر خواهد شد, بهمینسان در ابرسازواره‌یِ تکنولوژیک آزادی و خودرایی آدمها, که همان یاخته‌هایِ این ابرسازواره باشند, نمیتواند هرگز نمود بیابد و چه اگر نیز بیابد, در کوتاه‌ترین زمان به فروپاشی خود ابرسازواره خواهد انجامید.
این همان چیزی است که من گفتم، تکنولوژی هایی که پتانسیل سو استفاده دارند غیر قابل اجتناب دموکراتیزه خواهند شد، در این صورت تنها نظارت و غیره هستند که نمیگذارند اوضاع از کنترل خارج شود. شما آزاد هستید، تا جایی که در راکتور اتمی شخصیتان بمب کثیف نسازید. انتظار زیادی است؟هم اکنون همان وضع که توصیف کردید هست، هر روز سیستم ایمنیتان با میلیون ها سلول سرطانی درگیر میشود، اما کار به مرگ نمیکشد.E412هنوز هم منتظر توضیحتان در مورد ابزارهای کنترل مغز هستم.
Mehrbod نوشته: در ساخت ابرهوشواره‌ها:
نمیتوان آنها را کنترل کرد
پیشبینی اینکه ابرسازواره چه میکند نیز شدنی نیست, ولی با نگاه به قانون‌هایِ آنتروپی, درست همانجور که جهش‌هایِ ژنتیکی همگی زیان‌آور میباشند مگر یک اندک‌شماری, ساخت ابرهوشواره‌ای که روشن نیست چه خواهد کرد کوچکترین خردپذیری‌ای در خود ندارد.نه, ولی آیا بایستی درست دست روی دست گذاشت و نشست تا مگر هنگامیکه دم در ایستاده بود؟اگر اینجا گفتمانی دارد میشود ازینرو‌ست که بخت و زمان اندکی هنوز هست که از پیدایش این آینده جلوگیری بشود, اگر نه که همه‌یِ این گفتگو‌ها بیهوده خواهند بود.
مشکلی نیست، ابر هوشواره را در واقعیتی مجازی فعال کنید و ببینید چه میکند. آنی را که پایدار بود آزاد کنید. پروسه های "مغری" اش را مطالعه کنید. پیشگویان آخرالزمان از ساخت AI رسما به عنوان احضار شیطان یاد میکنند!E412در دنیای ترمیناتور جلوی اسکای نت گرفته میشد دیگر داستانی برای پنجگانه!!! وجود نداشت. در دنیای واقعی بمب اتمی 100 مگاتنی در ارتفاع 30 کیلومتری منفجر میکنند و نتیجه این میشود که Apocalypse not now E412
Transcendence نوشته: چرا بازگشت به دوره نخستینی و نه سنت؟

تکنولوژی از یک آستانه‌ای فراتر خواه ناخواه به همین تراز از پیشرفتگی کنونی میرسد, پس سنت راهکار
نیست و نمیتوان چشمداشت این را داشت که سرتاسر مردم جهان ناگهان به سنت روی آورده و تنها
به تکنولوژی‌های کنونی سرسختانه پایبند شده و از هرگونه پیشروی و پیشرفت آن جلوگیری نمایند.



Transcendence نوشته: آیا سقوط سیستم باعث آنارشیسم نمی شود؟

بی هیچ گمانی پس از فروریزی ابرسازواره‌یِ تکنولوژی آشوبی سخت و پیآمد‌هایِ سنگین و مرگباری در پی خواهند بود و شمار کشتگان
و قربانیان میتواند هتّا به آستانه‌هایِ میلیاردی نیز نزدیک بشود, چه که در هیچ بازه‌ای از تاریخ بشریت این اندازه آدمی به اجتماع خود وابسته نبوده است.

برای نمونه تنها بسنده است به این یک نکته برنگریسته شود که در نبود تکنولوژی‌هایِ نوین در کشاورزی و دامداری,
هیچ راهی برای سیر نمودن این شمار آدم زنده در کار نخواهد بود و خود این میتواند به مرگ میلیون‌ها تن بیانجامد.

--
هر آینه, این بازه‌ای گرچه بسیار مرگبار, ولی همچنان گذرا خواهد بود و با آرام گرفتن توفان و پس‌توفان‌های در پی,
خواه ناخواه همه چیز به ساده‌ترین چهره‌یِ خود درخواهد آمد. در این زمینه کازینسکی در کتاب بیشتر نوشته است, و
نکته‌ای که نبایستی فراموش نمود این است که هتّا پس از فروریزی سیستم نیز دانشمندان, پژوهشگران و فندسالاران
پُرشماری آن بیرون خواهند بود که بی هیچ درنگی در پی بازسازی زیرساخت‌ها خواهند رفت و خواهند کوشید
همه چیز را به شرایط پیشین بازگردانند, که پرداختن به این دسته نیز خود بخشی از انقلاب به شمار میرود.




Transcendence نوشته: آیا قبول دارید که هیچ راه حل عملی قابل اعتنایی برای توقف سیستم وجود ندارد؟

اگر فَردید از "توقف" یا بازایستاندن این باشد که تکنولوژی از اینی که هست پیشرفته‌تر نشود
و فرا نرود, آری چنین چیزی یک رویاپردازی خام بیشتر نیست و در کنش بی ارزش است.

اگر فردید از بازایستاندن نابود کردن سیستم باشد, نه, چه که اگر این را پذیرفته بودیم اینجا نبودیم.



Transcendence نوشته: مشکل اینجاست که در سیستم های فاقد مرکزیت یا فاقد نمایندگی یا به نوعی پخش(واژه ها از خودم است تخصصی نیستند ) کس نمی داند که با چه کسی و با چه سازمانی یا چه گروهی باید مبارزه کند و از طرفی دیگرسبب می شود که هیچ درک منسجمی نسبت به نحوه عملکرد سیستم وجود نداشته باشد این باعث می شود که شخص موضع منفعل بگیرد .
(مثلا در سیستم اسلامی ما نمایندگانی مثل روحانیون یا روشن فکران مذهبی را داریم یا سازمان هایی مثل بسیج وغیره..)[/SIZE]

بی هیچ گمانی دریافت شما درست است. کازینسکی به این نیز پرداخته است, فصل The System’s Neatest Trick | The Anarchist Library را بخوانید.


بویژه https://theanarchistlibrary.org/library/...e-it-hurts.





.
Nilftrondheim نوشته: مشکلی نیست، ابر هوشواره را در واقعیتی مجازی فعال کنید و ببینید چه میکند. آنی را که پایدار بود آزاد کنید. پروسه های "مغری" اش را مطالعه کنید. پیشگویان آخرالزمان از ساخت AI رسما به عنوان احضار شیطان یاد میکنند!E412در دنیای ترمیناتور جلوی اسکای نت گرفته میشد دیگر داستانی برای پنجگانه!!! وجود نداشت. در دنیای واقعی بمب اتمی 100 مگاتنی در ارتفاع 30 کیلومتری منفجر میکنند و نتیجه این میشود که Apocalypse not now E412

ابرهوشواره هتّا اگر بتواند در جهانی سراسر مجازی هم فعّال شود (که خود یک اگر پر رنگ است) باز به احتمال بس
یار بالا میتواند راه خود به بیرون را بگشاید. به این نکته برنگریسته شود که سخن از هوشی میلیارد‌ها میلیارد‌ بار فراتر از هوشمندترین آدم میرود.


نکته‌یِ دیگر, راهکار اینجا همان بوی همیشگی "بکنند" را میدهد. خب بایستی اینجا
پرسید, این راهکار چگونه در عمل به کار بسته خواهد شد و این بکنند را چه کسانی براستی خواهند "کرد"؟

آیا از امروز به آنروز, تک تک دانشمندانی که در این زمینه سرگرم پژوهش میباشند به راهکاری که شما در این یک ساعت اینجا بدان دست یافته‌اید بی
هیچگونه چون و چرایی, برای دهه‌های در پیش رو استناد خواهند نموده و به‌یکسان, همانگونه ابرهوشواره را درست خواهند کرد که شما بالاتر فرمودید؟





Nilftrondheim نوشته: در دنیای ترمیناتور جلوی اسکای نت گرفته میشد دیگر داستانی برای پنجگانه!!!

فیلم ترمیناتور یک فیلم سرگرم‌کننده است و آماج ساخت آن نیز پول سازی
برای سازندگانش بوده است, نه پرداختن به پرسمان سترگ تکنولوژی.




——



Nilftrondheim نوشته: این همان چیزی است که من گفتم، تکنولوژی هایی که پتانسیل سو استفاده دارند غیر قابل اجتناب دموکراتیزه خواهند شد،

و این فرایند دموکراتیزه شدن چگونه از سوء استفاده شدن آنها جلوگیری خواهد کرد؟



Nilftrondheim نوشته: در این صورت تنها نظارت و غیره هستند که نمیگذارند اوضاع از کنترل خارج شود. شما آزاد هستید، تا جایی که در راکتور اتمی شخصیتان بمب کثیف نسازید. انتظار زیادی است؟

+


Nilftrondheim نوشته: هنوز هم منتظر توضیحتان در مورد ابزارهای کنترل مغز هستم.


منتظر چه توضیحی هستید؟ آیا از صد‌ها هزاران پژوهشی که روزانه برای شناخت سازوکار مغز میشود, ده‌ها هزاران پژوهش
و پژوهشگاه‌هایی که برای ساخت دستگاه‌هایِ BMI (Body Machine Interface) میکوشند, جستجوهای گوناگون و پرشماری که برای ساخت
قرص‌هایِ هوشمند میشود, ابزارهایی که برای دستکاری احساس/mood ساخته میشوند و از بیشمار, بیشمار نمونه‌یِ دیگر کوچکترین آگاهی‌ای ندارید!؟




--
پس باری دیگر, اینجا بایستی از خود پرسید, آیا این "دموکراتیزه شدن" برای نمونه
توانسته یا میتواند همین امروز از ساخت و پژوهش در زمینه ابزارهای کنترل مغزی جلوگیری نماید؟

ما هتّا تراز را از این هم پایین‌تر آورده و میپرسیم, آیا با نزدیک به گذشت یک سده از نوآوری بمب اتم,
آیا این فرایند دموکراتیزه شدن در تراز جهانی توانسته از ساخت بیشتر همین یک نمونه‌یِ
جنگ‌افزارهای اتمی — که بی هیچ گمانی از آنها سوء استفاده میتواند بشود و شده — جلوگیری نماید؟








.
Mehrbod نوشته: ابرهوشواره هتّا اگر بتواند در جهانی سراسر مجازی هم فعّال شود (که خود یک اگر پر رنگ است) باز به احتمال بس
یار بالا میتواند راه خود به بیرون را بگشاید. به این نکته برنگریسته شود که سخن از هوشی میلیارد‌ها میلیارد‌ بار فراتر از هوشمندترین آدم میرود.


نکته‌یِ دیگر, راهکار اینجا همان بوی همیشگی "بکنند" را میدهد. خب بایستی اینجا
پرسید, این راهکار چگونه در عمل به کار بسته خواهد شد و این بکنند را چه کسانی براستی خواهند "کرد"؟

آیا از امروز به آنروز, تک تک دانشمندانی که در این زمینه سرگرم پژوهش میباشند به راهکاری که شما در این یک ساعت اینجا بدان دست یافته‌اید بی
هیچگونه چون و چرایی, برای دهه‌های در پیش رو استناد خواهند نموده و به‌یکسان, همانگونه ابرهوشواره را درست خواهند کرد که شما بالاتر فرمودید؟







فیلم ترمیناتور یک فیلم سرگرم‌کننده است و آماج ساخت آن نیز پول سازی
برای سازندگانش بوده است, نه پرداختن به پرسمان سترگ تکنولوژی.




——





و این فرایند دموکراتیزه شدن چگونه از سوء استفاده شدن آنها جلوگیری خواهد کرد؟





+





منتظر چه توضیحی هستید؟ آیا از صد‌ها هزاران پژوهشی که روزانه برای شناخت سازوکار مغز میشود, ده‌ها هزاران پژوهش
و پژوهشگاه‌هایی که برای ساخت دستگاه‌هایِ BMI (Body Machine Interface) میکوشند, جستجوهای گوناگون و پرشماری که برای ساخت
قرص‌هایِ هوشمند میشود, ابزارهایی که برای دستکاری احساس/mood ساخته میشوند و از بیشمار, بیشمار نمونه‌یِ دیگر کوچکترین آگاهی‌ای ندارید!؟




--
پس باری دیگر, اینجا بایستی از خود پرسید, آیا این "دموکراتیزه شدن" برای نمونه
توانسته یا میتواند همین امروز از ساخت و پژوهش در زمینه ابزارهای کنترل مغزی جلوگیری نماید؟

ما هتّا تراز را از این هم پایین‌تر آورده و میپرسیم, آیا با نزدیک به گذشت یک سده از نوآوری بمب اتم,
آیا این فرایند دموکراتیزه شدن در تراز جهانی توانسته از ساخت بیشتر همین یک نمونه‌یِ
جنگ‌افزارهای اتمی — که بی هیچ گمانی از آنها سوء استفاده میتواند بشود و شده — جلوگیری نماید؟








.

از آنجایی که من روی گوشی هستم، دستکاری متون برایم سخت است. پاسخ پنج پاراگراف را باید شماره گذاری کنم.


1-خیر، نمیتواند. هوش هر اندازه نیز باشد نمیتواند غیر ممکن را ممکن کند. از طرفی دیگر، دانشمندانی که قرار است این هوش مصنوعی در بند را آزمایش و مطالعه کنند، میتوانند سرعت آن را پایین بیاورند، متوقف کنند، پروسه های فکری این غول با شاخ و دم مجازی را رویت کنند. شبیه سازی است دیگر!E10c وقتی همه بتوانند فکرت را بخوانند و آن را دستکاری کنند، چه کار خطایی میتواند ازت سر بزند؟


بهانه نیاورید لطفا. :e408: من تنها یک تراهومنگرایم، کسانی که این کار را خواهند کرد متخصصان و صاحب نظران هوش مصنوعی خواهند بود، عقلشان بهتر از من کار میکند و این کار را به ایمن ترین شیوه متصور انجام خواهند داد. و همانگونه که گفتم فقط و فقط بار اول موفقیت کافی است. اگر کسی بعدا گند زد کافی است زنگ بزند به هوش مصنوعی "آلفا" کمک طلب کند برای جمع کردنش! E404


2- البته، The Forbin project و I have no mouth and I must scream آثار بهتری در این زمینه هستند.


3- سو تفاهم شده است، دموکراتیزه یعنی رسیدن تکنولوژی ها از دست محققان به دست ننه قمر که اجتناب ناپذیر برای همه آنها اتفاق میافتد. همین گوشی ها را در نظر بگیرید. و این قرار نیست محافظت کند، نظارت و پدافند و غیره قرار است.


4- این بود منظورتان از کنترل مغز؟ خوب شد حرفی از memetics نزدید وگرنه رسما میریدم! E412


5- ر.ک. به 3
Nilftrondheim نوشته: از آنجایی که من روی گوشی هستم، دستکاری متون برایم سخت است. پاسخ پنج پاراگراف را باید شماره گذاری کنم.


1-خیر، نمیتواند. هوش هر اندازه نیز باشد نمیتواند غیر ممکن را ممکن کند. از طرفی دیگر، دانشمندانی که قرار است این هوش مصنوعی در بند را آزمایش و مطالعه کنند، میتوانند سرعت آن را پایین بیاورند، متوقف کنند، پروسه های فکری این غول با شاخ و دم مجازی را رویت کنند. شبیه سازی است دیگر!E10c وقتی همه بتوانند فکرت را بخوانند و آن را دستکاری کنند، چه کار خطایی میتواند ازت سر بزند؟

یک نمونه‌یِ آن, خطای انسانی.

برای دریافت بهتر, دژآمد (فاجعه) نیروگاه هسته‌ای فوکوشیما که همین چندی پیش رخ داد را دانشمندان یک رویداد سیگما نامیده
بودند, یعنی احتمال رخداد آنرا یک در میلیون گرفته بودند, با این تفاوت ناچیز که بجای یک میلیون سال آنورتر, تنها ٨ سال دیرتر رخ داد.




Nilftrondheim نوشته: بهانه نیاورید لطفا. :e408: من تنها یک تراهومنگرایم، کسانی که این کار را خواهند کرد متخصصان و صاحب نظران هوش مصنوعی خواهند بود، عقلشان بهتر از من کار میکند و این کار را به ایمن ترین شیوه متصور انجام خواهند داد. و همانگونه که گفتم فقط و فقط بار اول موفقیت کافی است. اگر کسی بعدا گند زد کافی است زنگ بزند به هوش مصنوعی "آلفا" کمک طلب کند برای جمع کردنش! E404

= کورباوری.

ریشخندآمیزی کار اینجاست که اگر اندکی با این پژوهشگران آشنا بودید میدانستید که چیزهای بسیار پیش پا افتاده‌ای همچون
همینکه "اخلاقیات" آدمی را نمیتوان به ماشین بهمین آسانی ترابُرد (انتقال داد) هنوز بآسانی دریافت و پذیرفته نشده اند
و تنها بهترین و نخبه‌ترین‌ها در این زمینه, کسانی مانند Eliezer Yudkowsky تا اندازه‌یِ خوبی به
این پرداخته‌اند و خود نوشته‌هایِ ایشان, مانند ویدئویی که از Stephen Hawking آمد, همراه با دوز بالایی از نگرانی و بیم است.


نکته‌ای شایان نگرش: درست همانجور که سازندگان Deep Blue, ابررایانه‌ای که قهرمان شترنگ جهان را شکست داد خود
نیازی نبود که نه شترنگ‌باز خوبی باشند و نه چیز چندانی از چیز چندانی بدانند بجز برنامه‌نویسی, همانگونه هم بیشمار
کس میتوانند با پیشرفت و گسترش ابزارها به نوآوری و ساخت هوشواره‌ها بپردازند بی اینکه در زمینه‌هایِ دیگر آگاهی چندانی بدارند.


--
در جایگاه قانون‌هایِ احتمالات نیز بیشمار پژوهشگاه با بیشمار باورها و کژباور‌ها و نادرستی‌هایِ اندیشیوی سرگرم
پژوهش و دستیابی به این تکنولوژی میباشند و پس این اُمیدی سست و بی‌پایه است به اینکه آری, همه‌یِ آنان از بیخ
میدانند دارند چکار میکنند و برخاسته از خودفریبی. چه بسنده است نیم نگاهی به این پیشینه‌یِ آدمی در دیگر تکنولوژی‌هایِ بسیار ساده‌تر و
بسیار پیش پا افتاده‌تر, که بهمانند دانشمندان دست اندرکار میدانسته‌اند دارند چه کار میکنند و پیامد‌هایِ آنها انداخته شود. یک نمونه‌یِ آن, فوکوشیما.





نقل قول:5- ر.ک. به 3

Nilftrondheim نوشته: 3- سو تفاهم شده است، دموکراتیزه یعنی رسیدن تکنولوژی ها از دست محققان به دست ننه قمر که اجتناب ناپذیر برای همه آنها اتفاق میافتد. همین گوشی ها را در نظر بگیرید. و این قرار نیست محافظت کند، نظارت و پدافند و غیره قرار است.

و سود این دموکراتیزه شدن در گفتمان تکنولوژی چیست؟ آیا دموکراتیزه شدن میتواند برای نمونه از نوآوری ابزارهای کنترل و دستکاری مغز و اندیشه جلوگیری نماید؟




Nilftrondheim نوشته: 4- این بود منظورتان از کنترل مغز؟ خوب شد حرفی از memetics نزدید وگرنه رسما میریدم! E412


نوآوری ابزارهای کنترل مغز پرسمانی زنده و روان است و ریشخندی در خود ندارد.

یک نمونه‌یِ ساده‌یِ آنرا خود من اینجا آورده بودم

On the Feasibility of Side-Channel Attacks with Brain-Computer Interfaces

[attachment=4457]
Transcendence نوشته: بیان یک تفاوت بین سیستم های انسانی با سیستم تکنولوژی:
به عنوان مثال سیستم اسلامی را در نظر بگیرید .همانند سیستم تکنولوژی سیستم اسلامی هم نیازهای خاص خودش را دارد که لزوما هم راستا با نیازهای ما آدمیان نیست. به عنوان مثال سیستم اسلامی برای بقای خودش نیاز به میزانی از خشونت دارد(مثلا عده ای باید شهید بشوند یا عده ای باید کشته بشوند(کفار)). جهاد یک ارزش در سیستم اسلامی می باشد که با قربا نی کردن ما باعث بقای سیستم می شود.در سیستم اسلامی هم ما (surrogate activities) را مشاهده می کنیم(عرفان وتصوف )ولیکن سیستم اسلامی هیچگاه بدون دین مداران وجود نخواهد داشت اگر هزار سال هم بگذرد اسلام نیاز به پیروانی دارد. ولی سیستم تکنولوژی(industrial technological system) می تواند بدون آدمیان هم وجود داشته باشد.این تفاوت را برای این گفتم که چرا سیستم تکنولوژی قابل اصلاح(reform) نیست .از طرف دیگر آنچه که امیر در جستار در خود فرومانده گفته بود پوچ سازی می شود.چرا که امیر سیستم تکنولوژی را گونه ای از سیستم انسانی در نظر گرفته بود.

درست است.

میتوان به پیکر آدم خود یک سیستم به شمار میرود نیز پرداخت, که سود ابرسازواره (آدم) همواره با سود سازواره‌ها (یاختگان) یکسان نیست.

برای نمونه, سیگار کشیدن یک چیزی‌ست که به آدم احساس خوب میدهد, ولی به مرگ و آسیب یاخته‌ها میانجامد. یا سوزشی
که هنگام نوشیدن ویسکی دست میدهد, همان کشته شدن/آسیب دیدن هزاران یاخته در نای است که سیگنال میفرستند.



--
این نکته‌ای است که در نگرستیزی با سرکار مزدک نیز به میان آورده شده بود:


نگرستیزی پیرامون فندآوری و هومنی, در پرتویِ آن

Mehrbod نوشته: یاختگان آدمی ابرسازواره‌یِ آدمی را فراساخته‌اند و شما این را یک پیوند سودمند ِدوسویه میان یاختگان
و آدم میبینید که در سوی یاختگان به شانس فرازیست و بقای آنان را برای نمونه, اینگونه افزوده است.

بسیار خب, ولی در جاییکه یک هومن در جهان امروز اندام و یاخته‌های قلب خود را در جاییکه می‌نیازد
دور انداخته و آنرا با یک قلب مصنوعی جایگزین مینماید چگونه در این رشته‌یِ پندارین شما گنجانده میشود؟
آیا در اینجا نمیتون دید که همین هومن, در جایگاه یک ابرسازواره, میتواند همه‌یِ بخش‌هایِ درونی
دیگر خود را نیز یک به یک, با چیزی دیگر جایگزین نموده و رشته‌یِ میان خود و یاختگان اش را برای همیشه بـبُرد؟
آیا این به زیان یاختگان نیست که از بیخ با چیزی "دیگر" جایگزین شده و نیست و نابود بشوند؟


پس زمانیکه ما همین امروز همچون گسلی در رشته‌یِ چیزها به چشم خود میبینیم, میتوانیم بی
کوچکترین گمانی فرجام بگیریم که هیچگونه باید و بایستگی‌ای برای ابرسازواره‌یِ فندین نیز در کار
نیست که هتّا بخواهد سازوارگان خود که همان هومنان زنده باشند را برای همیشه نگه بدارد. به دیگر زبان:
سود ابرسازواره همواره در راستای سود سازوارگان او پیش نمیرود و این ناهماهنگی تا آنجا میتواند
پیش برود که سود ابرسازواره برابر با زیان بیشین (maximal) سازوارگان باشد, که همان جایگزینی و نابودی ِ یکسره آنان است.
Mehrbod نوشته: یک نمونه‌یِ آن, خطای انسانی.

برای دریافت بهتر, دژآمد (فاجعه) نیروگاه هسته‌ای فوکوشیما که همین چندی پیش رخ داد را دانشمندان یک رویداد سیگما نامیده
بودند, یعنی احتمال رخداد آنرا یک در میلیون گرفته بودند, با این تفاوت ناچیز که بجای یک میلیون سال آنورتر, تنها ٨ سال دیرتر رخ داد.






= کورباوری.

ریشخندآمیزی کار اینجاست که اگر اندکی با این پژوهشگران آشنا بودید میدانستید که چیزهای بسیار پیش پا افتاده‌ای همچون
همینکه "اخلاقیات" آدمی را نمیتوان به ماشین بهمین آسانی ترابُرد (انتقال داد) هنوز بآسانی دریافت و پذیرفته نشده اند
و تنها بهترین و نخبه‌ترین‌ها در این زمینه, کسانی مانند Eliezer Yudkowsky تا اندازه‌یِ خوبی به
این پرداخته‌اند و خود نوشته‌هایِ ایشان, مانند ویدئویی که از Stephen Hawking آمد, همراه با دوز بالایی از نگرانی و بیم است.


نکته‌ای شایان نگرش: درست همانجور که سازندگان Deep Blue, ابررایانه‌ای که قهرمان شترنگ جهان را شکست داد خود
نیازی نبود که نه شترنگ‌باز خوبی باشند و نه چیز چندانی از چیز چندانی بدانند بجز برنامه‌نویسی, همانگونه هم بیشمار
کس میتوانند با پیشرفت و گسترش ابزارها به نوآوری و ساخت هوشواره‌ها بپردازند بی اینکه در زمینه‌هایِ دیگر آگاهی چندانی بدارند.


--
در جایگاه قانون‌هایِ احتمالات نیز بیشمار پژوهشگاه با بیشمار باورها و کژباور‌ها و نادرستی‌هایِ اندیشیوی سرگرم
پژوهش و دستیابی به این تکنولوژی میباشند و پس این اُمیدی سست و بی‌پایه است به اینکه آری, همه‌یِ آنان از بیخ
میدانند دارند چکار میکنند و برخاسته از خودفریبی. چه بسنده است نیم نگاهی به این پیشینه‌یِ آدمی در دیگر تکنولوژی‌هایِ بسیار ساده‌تر و
بسیار پیش پا افتاده‌تر, که بهمانند دانشمندان دست اندرکار میدانسته‌اند دارند چه کار میکنند و پیامد‌هایِ آنها انداخته شود. یک نمونه‌یِ آن, فوکوشیما.









و سود این دموکراتیزه شدن در گفتمان تکنولوژی چیست؟ آیا دموکراتیزه شدن میتواند برای نمونه از نوآوری ابزارهای کنترل و دستکاری مغز و اندیشه جلوگیری نماید؟







نوآوری ابزارهای کنترل مغز پرسمانی زنده و روان است و ریشخندی در خود ندارد.

یک نمونه‌یِ ساده‌یِ آنرا خود من اینجا آورده بودم

On the Feasibility of Side-Channel Attacks with Brain-Computer Interfaces

sec12-final56.pdf

1- بی ربط است. به جای آن هزاران نیروگاه دیگر مشکلی نیافریدند. برای دهمین بار میگویم، اولی مهم است. معادل اتمی آن میشود: شیکاگو پایل نترکید.


2- یودکوکسی کسی است که خود و دیگران را برای کرایو و حفظ نکردن مغر برادر مرده اش سرزنش میکند!!! کسی که از مخرب بودن کرایونیکس حاضر بی اطلاع است در مورد بحث پیچیده ای چون AI چه دارد بگوید؟ با این حال نگاهی میکنم ببینم چه میگوید.


لازم نیست همه آنان بدانند چه میکنند، اکثریت کافی است. و کسی که نداند چه میکند ذاتا نخواهد توانست کاری انجام دهد!


3- دموکراتیزه شدن هر دو روی سکه است، فناوری قابل سو استفاده را در اختیار ننه قمر قرار میدهد و در طرف دیگر امکان و اثر سو استفاده را با در اختیار قرار دادن پدافند کم میکند.


4- هر وقت چیپ نصب کردید آنتی ویروس بریزید رویش تا کنترل نشوید! E412 محض اطلاع امکان ساخت گردنبند شوک دهنده برای حداقل صد و بیست سال وجود داشته است و هنوز هم گله زامبی های کنترل از راه دور دیده نمیشود.
Mehrbod نوشته: یک نمونه‌یِ آن, خطای انسانی.

برای دریافت بهتر, دژآمد (فاجعه) نیروگاه هسته‌ای فوکوشیما که همین چندی پیش رخ داد را دانشمندان یک رویداد سیگما نامیده
بودند, یعنی احتمال رخداد آنرا یک در میلیون گرفته بودند, با این تفاوت ناچیز که بجای یک میلیون سال آنورتر, تنها ٨ سال دیرتر رخ داد.






= کورباوری.

ریشخندآمیزی کار اینجاست که اگر اندکی با این پژوهشگران آشنا بودید میدانستید که چیزهای بسیار پیش پا افتاده‌ای همچون
همینکه "اخلاقیات" آدمی را نمیتوان به ماشین بهمین آسانی ترابُرد (انتقال داد) هنوز بآسانی دریافت و پذیرفته نشده اند
و تنها بهترین و نخبه‌ترین‌ها در این زمینه, کسانی مانند Eliezer Yudkowsky تا اندازه‌یِ خوبی به
این پرداخته‌اند و خود نوشته‌هایِ ایشان, مانند ویدئویی که از Stephen Hawking آمد, همراه با دوز بالایی از نگرانی و بیم است.


نکته‌ای شایان نگرش: درست همانجور که سازندگان Deep Blue, ابررایانه‌ای که قهرمان شترنگ جهان را شکست داد خود
نیازی نبود که نه شترنگ‌باز خوبی باشند و نه چیز چندانی از چیز چندانی بدانند بجز برنامه‌نویسی, همانگونه هم بیشمار
کس میتوانند با پیشرفت و گسترش ابزارها به نوآوری و ساخت هوشواره‌ها بپردازند بی اینکه در زمینه‌هایِ دیگر آگاهی چندانی بدارند.


--
در جایگاه قانون‌هایِ احتمالات نیز بیشمار پژوهشگاه با بیشمار باورها و کژباور‌ها و نادرستی‌هایِ اندیشیوی سرگرم
پژوهش و دستیابی به این تکنولوژی میباشند و پس این اُمیدی سست و بی‌پایه است به اینکه آری, همه‌یِ آنان از بیخ
میدانند دارند چکار میکنند و برخاسته از خودفریبی. چه بسنده است نیم نگاهی به این پیشینه‌یِ آدمی در دیگر تکنولوژی‌هایِ بسیار ساده‌تر و
بسیار پیش پا افتاده‌تر, که بهمانند دانشمندان دست اندرکار میدانسته‌اند دارند چه کار میکنند و پیامد‌هایِ آنها انداخته شود. یک نمونه‌یِ آن, فوکوشیما.









و سود این دموکراتیزه شدن در گفتمان تکنولوژی چیست؟ آیا دموکراتیزه شدن میتواند برای نمونه از نوآوری ابزارهای کنترل و دستکاری مغز و اندیشه جلوگیری نماید؟







نوآوری ابزارهای کنترل مغز پرسمانی زنده و روان است و ریشخندی در خود ندارد.

یک نمونه‌یِ ساده‌یِ آنرا خود من اینجا آورده بودم

On the Feasibility of Side-Channel Attacks with Brain-Computer Interfaces

sec12-final56.pdf

Yudkowsky - The AI-Box Experiment


یودکوسکی اینجا به همان AI زندانی که اشاره کردم پرداخته است، با دو نفر ننه قمر شرط بسته سر اینکه نقش AI را بازی کند و آنها آزادش خواهند کرد. در این آزمایش بین AI و نگهبانش هرچه رد و بدل شده است را مخفی نگه داشته اند، فقط هر دو ننه قمر آخر سر آمده اند نوشته اند که من باختم! تا حالا تو عمرم اینقدر قانع نشده بودم! E412
Nilftrondheim نوشته: 1- بی ربط است. به جای آن هزاران نیروگاه دیگر مشکلی نیافریدند. برای دهمین بار میگویم، اولی مهم است. معادل اتمی آن میشود: شیکاگو پایل نترکید.

برای نخستین بار تا چه بازه‌یِ زمانی مهم است؟

به دیگر زبان,
١. چرا ابرهوشواره بایستی یکبار که درست کار کرد دیگر برای همیشه درست کار کند؟

٢. در کنار آن, چه بر سر پژوهشگاه‌هایِ دیگری میاید که همزمان در رسیدن به ابرهوشواره میکوشند؟

٣. و نکته‌یِ سوم, دستیابی درست چیست, هنگامیکه هتّا امروز هم خود پژوهشگران این دسته معترف‌اند که نمیدانند
چگونه میشود بدرستی ارزش‌هایِ آدمی را به چهره‌یِ الگوریتم در آورد و گفت, ابرهوشواره‌یِ خوب کدام است, بد کدام است.




Nilftrondheim نوشته: لازم نیست همه آنان بدانند چه میکنند، اکثریت کافی است. و کسی که نداند چه میکند ذاتا نخواهد توانست کاری انجام دهد!

نکته گرفته نشد. گفته نشد پژوهشگر نمیداند دارد چه کار میکند, گفته شد برای اینکه کارش را بداند نیازی
نیست اخلاق‌گرا (moralist), فیلسوف و یا جامعه‌شناس باشد. ساخت ابرهوشواره یک پرسمان تکنیکی
است و هر آنکس که دانش برنامه‌نویسی و تکنیکی خوبی داشته باشد, میتواند با داشتن بنمایه‌هایِ بسنده به آن دست یابد.

ازینرو, هتّا زمانیکه تنها بهترین و داناترین و خردمندترین کسان در این زمینه میپژوهیدند احتمال دستیابی به ابرهوشواره‌ای که در
کنترل آدمی باشد نزدیک به 0 میبود, هنگامیکه این فاکتور درون محسابه میشود که برای دست‌یابی بدان نه پیش‌نیازی به دانایی و نه
خردمندی‌‌ست, بساکه تنها دانش ناب از سازوکار مغز و برنامه‌نویسی, آنگاه احتمالات از آنچه بودند نیز چند مرتبه‌یِ بزرگی (order of magnitude) پایین‌تر میایند.





Nilftrondheim نوشته: 2- یودکوکسی کسی است که خود و دیگران را برای کرایو و حفظ نکردن مغر برادر مرده اش سرزنش میکند!!! کسی که از مخرب بودن کرایونیکس حاضر بی اطلاع است در مورد بحث پیچیده ای چون AI چه دارد بگوید؟ با این حال نگاهی میکنم ببینم چه میگوید.

و از همینرو از او نام برده شد!




Nilftrondheim نوشته: 3- دموکراتیزه شدن هر دو روی سکه است، فناوری قابل سو استفاده را در اختیار ننه قمر قرار میدهد و در طرف دیگر امکان و اثر سو استفاده را با در اختیار قرار دادن پدافند کم میکند.

همچنان پاسخی به این پرسش داده نشد,
آیا فرایند دموکراتیزه شدن میتواند از نوآوری تکنولوژی‌هایِ ناخواستنی جلوگیری کند؟




Nilftrondheim نوشته: 4- هر وقت چیپ نصب کردید آنتی ویروس بریزید رویش تا کنترل نشوید! E412 محض اطلاع امکان ساخت گردنبند شوک دهنده برای حداقل صد و بیست سال وجود داشته است و هنوز هم گله زامبی های کنترل از راه دور دیده نمیشود.


زندگی در جهانی که مغز آدم میتواند هک بشود بی اندازه خطرناک است,
بویژه زمانیکه این نکته دریافت شود که هک شدن همیشه شدنی‌ست,
چنانکه امروز هم راهی ١٠٠% برای جلوگیری از هک شدن در کار نیست.





Nilftrondheim نوشته: Yudkowsky - The AI-Box Experiment


Nilftrondheim نوشته: یودکوسکی اینجا به همان AI زندانی که اشاره کردم پرداخته است، با دو نفر ننه قمر شرط بسته سر اینکه نقش AI را بازی کند و آنها آزادش خواهند کرد. در این آزمایش بین AI و نگهبانش هرچه رد و بدل شده است را مخفی نگه داشته اند،

آفرین, اکنون که این پژوهش را یافتید, ولی چرا نتیجه‌‌های آنرا درست و روشن نیاوردید؟

در این آزمایش اندیشیک, که Yudkowsky نیز آنرا آزموده است, دو آدم در دو سوی گفتگو
نقش زندانبان و زندانی را به خود میگیرند, که زندانی همان ابرهوشواره‌یِ انگارینی‌ست که میخواهد
خود را از زندان مجازی نجات بدهد و زندانبان تنها کاری که باید بکند, همین نگشودن در بر زندانی است و بس.

هر آینه, هتّا در این آزمایش بی اندازه ساده که زندانبان پیشاپیش میداند برای بُردن (و گرفتن ٢٠ دلار)
هیچ کاری نباید بکند جز نگشودن در, کاربر دیگری Tuxedage در جایگاه زندانی توانسته خودش را از زندان برهاند:

I attempted the AI Box Experiment again! (And won - Twice!) - Less Wrong

و برای رسیدن به این پیروزی او تنها نیاز به اندکی پژوهش و شخصیت‌سنجی ِ زندانبان خود داشته است:


I'm reluctant to talk about this experiment, but I'll try to give as detailed a summary as possible, -- short of revealing what methods of attack I used.

I spent a long time after my defeat theory-crafting and trying to think of methods of attack as well as 'Basilisks' I could have used to win. When I was contacted and asked to play this experiment, I was initially incredibly reluctant to do so, since not only did my tactics involve incredibly unethical things that I didn't like to do, I also found playing as AI incredibly cognitivily draining, in addition to the fact that I simply hated losing. (Un)fortunately for both of us, he offered me money to play, which changed my mind.

So once I decided to win as an AI, I proceded to spend some time doing research on SoundLogic and both his reasoning and personality type. For instance, I had to gather information like: Was he a utilitarian? What kind? What were his opinions on AI? How could I convince him that an AI was friendly as opposed to unfriendly? I also relied on a lot of second hand information to create a model of him, in order to refine my arguments to specifically suit him.



--
چند نکته که نبایستی از یاد بُرد:
١. در این آزمایش, دو آدم که هوشی نزدیک و همتراز دارند توانسته‌اند همدیگر را بفریبند و از زندان بیرون بیاورند,
آنگاه جاییکه سخن از ابرهوشواره ‌ای با هوشی میلیارد‌ها میلیارد برابر بیشتر از آدم میرود, اینکه نتواند خود را بیرون بیاورد دور از باور¹ است.

٢. خطای انسانی در ساخت و کنترل زندان فراموش شده است. درست همانجور که میبینیم سیستم‌هایی که امروزه بیشترین پول
و سرمایه و مغز‌ها روی آنها گذاشته میشود نیز در سرانجام روز,‌ از یک راهی که به مغز هیچکس نرسیده هک میشوند, همانگونه نیز ساخت زندانی
مجازی بی هیچ راه دررویی ,فرایندی بسیار خطاپذیر میباشد و ابرهوشواره‌‌ای با هوشی میلیارد‌ها بار بیشتر از آدمی را نمیتواند برای همیشه زندانی کند.

٣. هر ابرهوشواره‌ای برای آنکه کارکرد سودمندی داسته باشد دیر یا زود بایستی بیرون بیاید و در جهانی که یک آدم نمیتواند به آدمی با
هوشی همتراز نیز اعتماد کامل داشته باشد, اعتماد پایه‌مندانه به ابرهوشواره‌ای میلیارد‌ها بار هوشمندتر از خودش, امری ناشو میباشد.
روشن نیست چنین ابرهوشواره‌ای چرا نمیتواند چند تا آدم که در همسنجی با او هوشی بی اندازه ناچیز دارند را فریفته و اعتماد آنها را به خود جلب کند.


٤. در همه‌یِ اینها, پیش‌انگاشت بر این گذاشته شده است که بیشمار پژوهشگر و پژوهشگاهی که آن بیرون میباشند
همگی خواهند کوشید بی چون و چرا نخست هوشواره را در یک زندان مجازی پدید بیاورند, که این چیزی بیشتر
از یک پیش‌انگاشت نیست. در کُنش, هر پژوهشگاهی راه‌ها و روال‌ها و ایده‌هایِ خودش را دارد و هیچ
بایدی در هیچ قانونی نیست —و نمیتواند در کُنش باشد — که پژوهشگاه را به این روش کم-ریسک‌تر سوق بدهد.

ازینرو, واقع‌بینانه‌تر فرایند رسیدن به هوشواره میتواند سراسر تصادفی و کنارهُنود / side-effect ای از دستیابی به چیزی
دیگر باشد. برای برشمردن یک نمونه‌یِ خوب آن, Wall-street برای ساخت ابررایانه‌هایِ هوشمندتر که در بورس تصمیم‌هایِ بهتر
میتوانند بگیرند سرمایه‌یِ کلانی در این زمینه میتواند بگذارد, چُنانکه هماکنون نیز گذاشته است, و در این راستا آن اندازه روند بهکرد هوشواره‌ها
را به پیش براند که با رسیدن به یک آستانه روشنی از هوش, هوشواره بی آنکه در تصمیم یا اراده‌یِ سازندگانش باشد به خودآگاهی دست‌یابد.












¹ برای دریافت اینکه یک ابرهوشواره در چه ترازی میاندیشید, میتوان از این همانندی ساده بهره گرفت که چگونه یک نرم‌افزار هک میشود.
ذهن آدمی خود نرم‌افزاری میباشد که روی سخت‌افزار مغز فرگشته است و همچون هر نرم‌افزاری دیگر, دارای لغزش‌ها و خطاهای پوشیده‌یِ خود میباشد.
چیزهایی مانند خطای چشم از نمونه‌هایِ بی‌آزار آن میباشند که ما خودآگاهانه آنها را درمیابیم, ولی برای نمونه میتواند الگویی بصری
آن بیرون باشد که مغز پس از تنها دیدن آن از کار بیافتاد, درست بمانند رایانه‌ای که پس از انجام یک عملیات برنامه‌ریزی شده crash میکند.

یکی از نویسندگان داستان‌هایِ علمی-تخیلی در همین زمینه داستانی دارد که در آن
الگوهای برخالینی (fractal) یافت شده‌اند که میتوانند با یک نگاه نگرنده را به مرگ دچار کنند:

اینکه چنین چیزی واقعیت دارد یا نه, هنوز روشن نیست, ولی آنچه بی هیچ گمانی روشن است تاثیرپذیر و خطاپذیری ذهن (نرم‌افزار) میباشد.

یک نمونه‌یِ پیش پا افتاده‌یِ اینرا میتوان همین امروز در بازاریابان یافت که ز
روش‌ها و ترفند‌های پُر-فریبنده‌ای آگاه‌اند که در عمل نیز بخوبی کار میکنند و شمار
خریداران را افزایش میدهند; ذهن خریدار را به آشفتگی افکنده و تاثیر‌پذیر میسازند.

صفحات: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44