12-31-2017, 09:08 AM
آنچه آنتیتکها در گفتمانِ آخرالزمانیشان در یکی از مصادیقِ عامیانه،
یعنی نابودی بشر به دست ابرهوشوارهها، از درکِ آن غافل میمانند،
این است که در جهانی که در سیترهی این موجودات مصنوعِ دستِ انسان
قرار دارد، چگونه تضادِ بین ِ قطعیت در امری منتج در نظام منطقی و قطعیت
در عمل حل میشود.
یعنی از آنجا که ما با ابرهوشوارههایی مواجه هستیم که میلیونها برابر برتر از هوشِ
جمعیِ انسانها، باهوش هستند و در قاموسِ این موجودات برابریِ میزان اهمیت
و درجهی اولویتِ قطعیتِ امر منطقی و قطعیت عملی، اصلی خدشهناپذیر خواهد بود،
در ازای نابودی بشریت چه دستاوردی کسب میشود که به اندازهی غیرقابل برگشت
بودنِ عمل به آن، بغرنج و اساسی باشد؟
در واقع آنتیتِکها بخش پایانی روایتِ هالیوودیِ آخرالزمانِ تکنولوژیکال را میپذیرند و تنها
در مورد میزان حتمی بودناش با آن اختلاف دارند: ابرهوشوارهها در هرحال به این نتیجه
خواهند رسید که «انسان باید نابود شود.» چراییاش هرگز مورد بحث قرار نمیگیرد.
اگر چیزی قرار است پس از نابودی انسانها باشد، باید دستاوردی مهمتر و ارزشمندتر
از حیات انسانها در هر حالت و نگاه باشد تا در هر سیستم منطقی موجه باشد. اگر
حقیقتا این چنین چیزی وجود دارد، دلیلِ مخالفت با آن چیست؟
در واقع این شروعی از سمت مقابل و بیانی سلبی در ابطالِ گفتمانِ آنتیتکها است
که نشان میدهد سناریوهایی برای عدم قطعیت و غیرحتمی بودنِ آخرالزمانِ مورد تنذیرِ
آنها وجود دارد.
البته این صرفا در مورد جزمیتِ آنتیتکها در مورد قطعیت نابودیِ حیاتِ انسان
بدست تکنولوژی مصداق دارد وگرنه کلیت نتیجهگیریِ آنها تا حد زیادی درست
است اگرچه مقدمات نادرستی را پیشفرض قرار دادهاند. تکنولوژی به لحاظ اینکه
سیستمی غیرطبیعی با بازوهایی اثرگذار در سیستمهای طبیعی است،
انسان را به سوی قماری بسیار خطرناک و گران پیش میبرد.و اینجاست که
خاصیتِ خطرناکِ تقابلِ احتمالیِ ذهن بشر با خودش، نمود مییابد. ما چیزی را
خلق میکنیم و تکامل میدهیم که قدرت بسیار زیادی میتواند داشته باشد
یا به همراه داشته باشد، در حالی که کنترل ِ آن تا جایی در دستِ ماست؛
چشماندازی از روزی که آنها خودمختار شوند، نمیتواند وجود داشته باشد.
گفتمان آنتیتکها، گفتمانی درونتکنولوژیکال محسوب میشود،
چنانکه برای نابودی سیستمِ تکنولوژیکال، ابزارهای تکنولوژیکال لاجرم غیرقابل
استفاده نکردن است. رابطهی آنها مانند رابطهایست که در «چپ» و «راست»
سیاسی-اقتصادی وجود دارد.
یعنی نابودی بشر به دست ابرهوشوارهها، از درکِ آن غافل میمانند،
این است که در جهانی که در سیترهی این موجودات مصنوعِ دستِ انسان
قرار دارد، چگونه تضادِ بین ِ قطعیت در امری منتج در نظام منطقی و قطعیت
در عمل حل میشود.
یعنی از آنجا که ما با ابرهوشوارههایی مواجه هستیم که میلیونها برابر برتر از هوشِ
جمعیِ انسانها، باهوش هستند و در قاموسِ این موجودات برابریِ میزان اهمیت
و درجهی اولویتِ قطعیتِ امر منطقی و قطعیت عملی، اصلی خدشهناپذیر خواهد بود،
در ازای نابودی بشریت چه دستاوردی کسب میشود که به اندازهی غیرقابل برگشت
بودنِ عمل به آن، بغرنج و اساسی باشد؟
در واقع آنتیتِکها بخش پایانی روایتِ هالیوودیِ آخرالزمانِ تکنولوژیکال را میپذیرند و تنها
در مورد میزان حتمی بودناش با آن اختلاف دارند: ابرهوشوارهها در هرحال به این نتیجه
خواهند رسید که «انسان باید نابود شود.» چراییاش هرگز مورد بحث قرار نمیگیرد.
اگر چیزی قرار است پس از نابودی انسانها باشد، باید دستاوردی مهمتر و ارزشمندتر
از حیات انسانها در هر حالت و نگاه باشد تا در هر سیستم منطقی موجه باشد. اگر
حقیقتا این چنین چیزی وجود دارد، دلیلِ مخالفت با آن چیست؟
در واقع این شروعی از سمت مقابل و بیانی سلبی در ابطالِ گفتمانِ آنتیتکها است
که نشان میدهد سناریوهایی برای عدم قطعیت و غیرحتمی بودنِ آخرالزمانِ مورد تنذیرِ
آنها وجود دارد.
البته این صرفا در مورد جزمیتِ آنتیتکها در مورد قطعیت نابودیِ حیاتِ انسان
بدست تکنولوژی مصداق دارد وگرنه کلیت نتیجهگیریِ آنها تا حد زیادی درست
است اگرچه مقدمات نادرستی را پیشفرض قرار دادهاند. تکنولوژی به لحاظ اینکه
سیستمی غیرطبیعی با بازوهایی اثرگذار در سیستمهای طبیعی است،
انسان را به سوی قماری بسیار خطرناک و گران پیش میبرد.و اینجاست که
خاصیتِ خطرناکِ تقابلِ احتمالیِ ذهن بشر با خودش، نمود مییابد. ما چیزی را
خلق میکنیم و تکامل میدهیم که قدرت بسیار زیادی میتواند داشته باشد
یا به همراه داشته باشد، در حالی که کنترل ِ آن تا جایی در دستِ ماست؛
چشماندازی از روزی که آنها خودمختار شوند، نمیتواند وجود داشته باشد.
گفتمان آنتیتکها، گفتمانی درونتکنولوژیکال محسوب میشود،
چنانکه برای نابودی سیستمِ تکنولوژیکال، ابزارهای تکنولوژیکال لاجرم غیرقابل
استفاده نکردن است. رابطهی آنها مانند رابطهایست که در «چپ» و «راست»
سیاسی-اقتصادی وجود دارد.
کسشر هم تعاونی؟!