09-02-2011, 10:10 AM
فیلیپ نوشته: ما نمی توانیم برنامه ای بنویسیم که باعث دیدن رنگ شود. کارایی برنامه و سخت افزار تنها به همان "خورد و بازخورد" محدود می شود. "خورد و بازخورد" هم هرچقدر بیشتر، سریعتر و یا در همتنیده تر باشند، همچنان نمی توانند به یک صنف اساسا متفاوت (حالات کیفی، آگاهی، انتخاب و ...) تبدیل شوند.
به همین دلیل (به فرض نشات ذهن از جسم) دستگاه عصبی بایستی جنبه ی دیگری به غیر از این "خورد و بازخورد" ها داشته باشد که حالات ذهنی را بوجود می آورد.
کیفیت چیزی بیشتر از همان خورد و بازخورد نیست.
همانگونه که «خورد و بازخورد» میان مولکولهای H2O به کیفیت آب میانجماد، خورد و بازخورد میان نورونهای مغزی نیز به qualia میانجامد.
اگر نه بنا به حرف شما، آب هم لابد باید جنبه "ماورالطبیعه"ای داشته باشد که کیفیت است و حالات «موج» مانند بوجود میآورد!
فیلیپ نوشته: این جنبه از دستگاه عصبی از آنجایی که در حال حاضر شناخته شده نیست، در دانش artificial intelligence تیز نمی تواند بکارگرفته شود و به این خاطر با اطلاعات کنونیمان قادر به ساخت ذهن نیستیم.
neural network هم اکنون برای انجام دادن فعالیتهای پیچیدهتر مانند Speech and Voice Recognition بکار میرود و پیاده سازی شده است.
اما همچنان که گفته شد، «ذهن» مانند «هوش ابتدتا شعور» تراز داشته و کم و زیاد دارد. همانگونه که ذهن یک بچه
خردسال 3 ساله بسیار سادهتر از یک آدم بالغ است، ذهن یک مگس یا یک برنامه کامپیوتر نیز بسیار ساده و پیش پا افتاده است.
اگر نه باز بنا به گفته شما، یک بچه خردسال بایستی به اندازه یک آدم بالغ «خودآگاه» بوده و ذهنی
همانند داشته باشد، که هر کس میتواند به تجربه شخصی خود رجوع کرده و ببیند که اینگونه است یا خیر!
فیلیپ نوشته: دوست ارجمند؛
«اتاق چینی» یک آزمایش فکری برای اثبات موضع اینجانب است (که بنده اتفاقا دو بار هم به آن اشاره کرده ام). این آزمایش نشان می دهد که که کار یک کامپیوتر مثل رد بدل یک سری نوشته ی چینی است که شخص آن ها را نمی فهمد. درواقع مثال می خواهد بگوید که پردازش (computation) چیزی اساسا متفاوت از فهم و آگاهیست.
جمله ی پرنگ شده ادعای strong AI* است که مثال اتاق چینی آن را رد می کند.
* strong Artificial Intelligence
The experiment is the centerpiece of Searle's Chinese Room Argument which holds that a program cannot give a computer a "mind" or "understanding", regardless of how intelligently it may make it behave.[SUP][1][/SUP] He concludes that "programs are neither constitutive of nor sufficient for minds."[SUP][2][/SUP] "I can have any formal program you like, but I still understand nothing
جان سرل و هربرت دریفوس (فلاسفه ی مشهور دانشگاه برکلی که از مراکز تحقیقاتی پیشتاز در علوم شناختیcognitive science و فلسفه ی ذهن باشد) مدت هاست که به نقد AI پرداخته اند و از قضا این نقدهایشان با شکست پروژه های AI در دانشگاه MIT کلی هم جان گرفته اند.[SUP][URL="http://en.wikipedia.org/wiki/Chinese_room#cite_note-FOOTNOTESearle1980-0"]
[/URL][/SUP]
من هم نگفتم برای ابراز موضع شما نیست. گفتمان «اتاق چینی» میگوید که اگر یک ماشین بتواند تنها با یک فرآیند mapping ساده (پردازش محض) همه
جملههای زبان چینی را بدون نقص بازگردانی کند، آیا میتوانیم آنرا خودآگاه بدانیم یا خیر. که این در راستای سخن شما است که خودآگاهی با پردازش تفاوت میکند.
هنگامیکه با نگاه به Strong AI، هوشمندی چیزی بیشتر از داشتن «رفتار هوشمندانه» نیست. اگر یک ماشین بتواند مانند یک آدم سخن
بگوید و گفتمان کند و کتاب بنویسد، پس خودآگاه و هوشمند نیز خواهد بود، اما دقت کنید که تراز پیچیدگی اینها با یکدیگر زمین تا آسمان فرق میکند.
در نمونه «اتاق چینی» در بهترین حالت اگر ساخت ماشین نامبرده را بدون داشتن خودآگاهی برای «برنامه
بازگردان» محال ندانیم، با یک سفسته پهلوانپنبه روبرو هستیم که هوشمندی را به بازگردانی نوشته ساده کرده است.
فعالیتهای زیر به ترتیب پیچیدگی لیست شدهاند:
- جمع و تفریق و محاسبات چهارگانه
- فهم نوشتاری (character recognition)
- پیدا کردن کوتاهترین مسیر در یک ماتریکس بدون تکرار کردن
- جستجوی دادهها و سرچ
- راه رفتن بسیار ساده و ابتدایی
- فهم گفتاری (speech recognition)
- بازگردانی و ترجمه پیشرفته (اتاق چینی)
- فهم دیداری (pattern recognition) پیشرفته
- راه رفتن و مسیریابی پیشرفته
- فهم زبان گفتاری/نوشتاری
- سخن گفتن (آزمون تورینگ)
- کتاب نوشتن
- فلسفه کردن
- ...
ما شاید تا بازگردانی و ترجمه را بتوانیم با کامپیوترهای امروزین تا یک تراز قابل قبولی پیش ببریم، ولی انجام دادن کارهای پس از آن بیاندازه پیچیده
میشوند و نیاز به یک سیستم خودآگاه برای انجام دادن آنها خواهد رفت. یک ماشین بدون خودآگاهی نمیتواند از خود کتاب داستان بنویسد، چراکه از دید محاسباتی
و محدودیتهای فیزیکی، برای ما ممکن نیست که بتوانیم «همه قانونها» را در یک رویکرد mapping ساده (استدلال «اتاق چینی») یک ماشین یاد بدهیم. برای بازگردانی
شاید چنین رویکردی شُدنی باشد (بهترین نمونه آن Google translator است) ولی فراتر از آن، نیاز به خودآگاهی میرود.
راه استاندارد و درستی که برای هوشمندی ماشین پیشنهاد شده نیز همان آزمون تورینگ است:
نقل قول:آزمون تورینگ آزمونی برای سنجش میزان هوشمندی ماشین است. آزمون به این صورت انجام میگیرد که یک شخص به عنوان قاضی، با یک ماشین و
یک انسان به گفتگو مینشیند، و سعی در تشخیص ماشین از انسان دارد. در صورتی که ماشین بتواند قاضی را به گونهای بفریبد که در قضاوت خود دچار اشتباه شود، توانسته است آزمون را با موفقیت پشت سر بگذارد.
پس اگر ما ماشینی داشته باشیم که همانند یک انسان بتواند «رفتار» کند، پس همانند انسان لزوما خودآگاهی نیز خواهد داشت، چراکه بدون خودآگاهی از پس همه فعالیتهای آدمی برنخواهد آمد.
.Unexpected places give you unexpected returns