دفترچه

نسخه‌ی کامل: آیا ذهن از جسم متمایز است؟
شما در حال مشاهده نسخه آرشیو هستید. برای مشاهده نسخه کامل کلیک کنید.
صفحات: 1 2 3 4 5 6 7 8 9 10 11 12 13 14
فیلیپ نوشته: خود-آگاهی بنظرم میرسد که از category کاملا متفاوتی از پردازش (رد و بدل اطلاعات) باشد. این بدان معانست که پردازش هر چه سریع و پیچیده هم باشد، همچنان نمی تواند تبدیل به خودآگاهی شود.
رابطه ای هم که بین تکامل دستگاه عصبی و تکامل خود آگاهی وجود دارد نیز پیوندی به ادعای شما ندارد. درواقع خود-آگاهی و پردازش میتوانند دو تابع مستقل از مغز باشند و لذا اینکه خودآگاهی به مغز وابسته است، نشان نمی دهد خود-آگاهی به پردازش نیز ربط دارد.


سامان نوشته: مهربد گرامي
اگر تعريف ذهن را اينگونه بپذيريم:
ذهن، نمودی از هوش و آگاهی تجربیست که بنا به تعاریف، مرکب از اندیشه، ادراک، حافظه، احساسات، امیال، تخیل و کلیه فرآیند شناخت ناخودآگاه است. واژه ذهن، بطور ضمنی اشاره به فرآیند فکری استدلال دارد. در تئوری‌های معاصر که بر پایه پژوهش‌های علمی درباره مغز است، ذهن را بُعدی ثانویه از مغز می‌داند که دارای دو نمود خودآگاه و ناخودآگاه است.

يا

Most agree that minds are constituted by conscious experience and intelligent thought. Common attributes of mind include perception, reason, imagination, memory, emotion, attention, and a capacity for communication. A rich set of unconscious processes are also included in many modern characterizations of mind.

آنگاه آنچه در آن نمودار نمايش داده شده و تنها سرعت پردازش اطلاعات را نشان ميدهد، نميتواند معياري براي وجود ذهن باشد. در واقع سرعت پردازش به ذهن كمك ميكند تا با سرعت بيشتري عمل نمايد نه اينكه خود شاخص وجود ذهن باشد.



درود،
در اینجا موضوع تندی محاسبه نیست، پیچیدگی بیشتر سیستم است.
پیچیدگی با این تعریف که interaction (خورد و بازخورد) درونی سیستم را پیچیدگی آن بدانیم.


در این تعریف، سنگ هم «هوش» دارد ولی آن اندازه که از نیروی گرانش پیروی کند، یک تک-یاخته نیز هوش دارد به آن اندازه که
می‌تواند انرژی را از پیرامون خود بگیرد و مصرف کند و تقسیم یاخته‌ای انجام دهد (mitosis). موجودات چند یاخته‌ای‌ اما هوش بیشتری
نسبت به یک تک-یاخته‌ای خواهند داشت، چرا که می‌توانند داده‌ها را میان خود به اشتراک بگذارند و .. همینگونه می‌رویم بالاتر تا می‌رسیم به جانداران
بسیار پیشرفته مانند آدمی که از چند تریلیون یاخته ساخته شده‌اند و تنها در مغز آدم نزدیک به 100 میلیارد یاخته نورونی در خورد و بازخورد پیوسته با یکدیگر هستند.

این خورد و بازخورد را ما می‌توانیم در یکان MIPS شمارش کنیم، از همینرو با داشتن پردازشگر و ترانزیستور
کافی و نرم‌افزار لازم، ما می‌توانیم یک جاندار زنده را به جای یاخته زیستی، با یاخته الکترونیکی درست کنیم.


نرم افزار ما همان «ذهن» گفته شده خواهد بود.

اما برای ساختن این نرم‌افزار ما همچنان چیزی به نام «ذهن» نمی‌نویسیم که برای نمونه رنگ ببیند، نرم‌افزار تنها
میان یاخته‌های ما یک بستر ارتباطی فراهم می‌کند تا یاخته‌ها بتوانند با یکدیگر خورد و بازخورد داده داشته باشند، با پیچیده‌تر شدن
سیستم، «ذهنیت» خود به خود آنجا شکل می‌گیرد، همانگونه که شعور و آگاهی از پیچیده‌تر شدن یاخته‌های زیستی شکل می‌گیرد.

این شیوه تنها راه یاد دادن کارهای پیشرفته مانند «فهم زبان گفتاری و نوشتاری» به ماشین نیز هست: Artificial Neural Networks



فیلیپ نوشته: درواقع خود-آگاهی و پردازش میتوانند دو تابع مستقل از مغز باشند و لذا اینکه خودآگاهی به مغز وابسته است، نشان نمی دهد خود-آگاهی به پردازش نیز ربط دارد.

خودآگاهی و پردازش در حقیقت نمی‌توانند از یکدیگر جدا باشند. برای پردازش فعالیت‌‌های پیشرفته‌تر، خودآگاهی بایسته و لازم است.

این مسئله در هوش ساختگی به نام «اتاق چینی» معروف است:


Chinese room

It addresses the question: if a machine can convincingly simulate an intelligent conversation, does it necessarily understand? In the experiment Searle imagines himself in a room, acting as a computer by manually executing a program that convincingly simulates the behavior of a native Chinese speaker. People outside the room slide Chinese characters under the door and Searle, to whom "Chinese writing is just so many meaningless squiggles",[1] is able to create sensible replies, in Chinese, by following the instructions of the program; that is, by moving papers around. The question arises whether Searle can be said to understand Chinese in the same way that, as Searle says:

According to strong AI, . . . the appropriately programmed computer really is a mind, in the sense that computers given the right programs can be literally said to understand and have other cognitive states.[1]

مهربد نوشته: در اینجا موضوع تندی محاسبه نیست، پیچیدگی بیشتر سیستم است.
فیلیپ نوشته: خود-آگاهی بنظرم میرسد که از category کاملا متفاوتی از پردازش (رد و بدل اطلاعات) باشد. پردازش هر چه سریع و پیچیده هم باشد، همچنان نمی تواند تبدیل به خودآگاهی شود.

مهربد نوشته: اما برای ساختن این نرم‌افزار ما همچنان چیزی به نام «ذهن» نمی‌نویسیم که برای نمونه رنگ ببیند، نرم‌افزار تنها
میان یاخته‌های ما یک بستر ارتباطی فراهم می‌کند تا یاخته‌ها بتوانند با یکدیگر خورد و بازخورد داده داشته باشند،
ما نمی توانیم برنامه ای بنویسیم که باعث دیدن رنگ شود. کارایی برنامه و سخت افزار تنها به همان "خورد و بازخورد" محدود می شود. "خورد و بازخورد" هم هرچقدر بیشتر، سریعتر و یا در همتنیده تر باشند، همچنان نمی توانند به یک صنف اساسا متفاوت (حالات کیفی، آگاهی، انتخاب و ...) تبدیل شوند.
به همین دلیل (به فرض نشات ذهن از جسم) دستگاه عصبی بایستی جنبه ی دیگری به غیر از این "خورد و بازخورد" ها داشته باشد که حالات ذهنی را بوجود می آورد. این جنبه از دستگاه عصبی از آنجایی که در حال حاضر شناخته شده نیست، در دانش artificial intelligence تیز نمی تواند بکارگرفته شود و به این خاطر با اطلاعات کنونیمان قادر به ساخت ذهن نیستیم.


نقل قول: این مسئله در هوش ساختگی به نام «اتاق چینی» معروف است:
دوست ارجمند؛
«اتاق چینی» یک آزمایش فکری برای اثبات موضع اینجانب است (که بنده اتفاقا دو بار هم به آن اشاره کرده ام). این آزمایش نشان می دهد که که کار یک کامپیوتر مثل رد بدل یک سری نوشته ی چینی است که شخص آن ها را نمی فهمد. درواقع مثال می خواهد بگوید که پردازش (computation) چیزی اساسا متفاوت از فهم و آگاهیست.
نقل قول:According to strong AI, . . . the appropriately programmed computer really is a mind, in the sense that computers given the right programs can be literally said to understand and have other cognitive states.[1
جمله ی پرنگ شده ادعای strong AI* است که مثال اتاق چینی آن را رد می کند.
* strong Artificial Intelligence

The experiment is the centerpiece of Searle's Chinese Room Argument which holds that a program cannot give a computer a "mind" or "understanding", regardless of how intelligently it may make it behave.[SUP][1][/SUP] He concludes that "programs are neither constitutive of nor sufficient for minds."[SUP][2][/SUP] "I can have any formal program you like, but I still understand nothing

جان سرل و هربرت دریفوس (فلاسفه ی مشهور دانشگاه برکلی که از مراکز تحقیقاتی پیشتاز در علوم شناختیcognitive science و فلسفه ی ذهن باشد) مدت هاست که به نقد AI پرداخته اند و از قضا این نقدهایشان با شکست پروژه های AI در دانشگاه MIT کلی هم جان گرفته اند.[SUP][URL="http://en.wikipedia.org/wiki/Chinese_room#cite_note-FOOTNOTESearle1980-0"]
[/URL][/SUP]

فیلیپ نوشته: ما نمی توانیم برنامه ای بنویسیم که باعث دیدن رنگ شود. کارایی برنامه و سخت افزار تنها به همان "خورد و بازخورد" محدود می شود. "خورد و بازخورد" هم هرچقدر بیشتر، سریعتر و یا در همتنیده تر باشند، همچنان نمی توانند به یک صنف اساسا متفاوت (حالات کیفی، آگاهی، انتخاب و ...) تبدیل شوند.
به همین دلیل (به فرض نشات ذهن از جسم) دستگاه عصبی بایستی جنبه ی دیگری به غیر از این "خورد و بازخورد" ها داشته باشد که حالات ذهنی را بوجود می آورد.

کیفیت چیزی بیشتر از همان خورد و بازخورد نیست.
همانگونه که «خورد و بازخورد» میان مولکول‌های H2O به کیفیت آب می‌انجماد، خورد و بازخورد میان نورون‌های مغزی نیز به qualia می‌انجامد.

اگر نه بنا به حرف شما، آب هم لابد باید جنبه "ماورالطبیعه"‌ای داشته باشد که کیفیت است و حالات «موج» مانند بوجود می‌آورد!



فیلیپ نوشته: این جنبه از دستگاه عصبی از آنجایی که در حال حاضر شناخته شده نیست، در دانش artificial intelligence تیز نمی تواند بکارگرفته شود و به این خاطر با اطلاعات کنونیمان قادر به ساخت ذهن نیستیم.

neural network هم ‌اکنون برای انجام دادن فعالیت‌های پیچیده‌تر مانند Speech and Voice Recognition بکار می‌رود و پیاده سازی شده است.

اما همچنان که گفته شد، «ذهن» مانند «هوش ابتدتا شعور» تراز داشته و کم و زیاد دارد. همانگونه که ذهن یک بچه
خردسال 3 ساله بسیار ساده‌تر از یک آدم بالغ است، ذهن یک مگس یا یک برنامه کامپیوتر نیز بسیار ساده و پیش پا افتاده است.

اگر نه باز بنا به گفته شما، یک بچه خردسال بایستی به اندازه یک آدم بالغ «خودآگاه» بوده و ذهنی
همانند داشته باشد، که هر کس می‌تواند به تجربه شخصی خود رجوع کرده و ببیند که اینگونه است یا خیر!




فیلیپ نوشته: دوست ارجمند؛
«اتاق چینی» یک آزمایش فکری برای اثبات موضع اینجانب است (که بنده اتفاقا دو بار هم به آن اشاره کرده ام). این آزمایش نشان می دهد که که کار یک کامپیوتر مثل رد بدل یک سری نوشته ی چینی است که شخص آن ها را نمی فهمد. درواقع مثال می خواهد بگوید که پردازش (computation) چیزی اساسا متفاوت از فهم و آگاهیست.

جمله ی پرنگ شده ادعای strong AI* است که مثال اتاق چینی آن را رد می کند.
* strong Artificial Intelligence

The experiment is the centerpiece of Searle's Chinese Room Argument which holds that a program cannot give a computer a "mind" or "understanding", regardless of how intelligently it may make it behave.[SUP][1][/SUP] He concludes that "programs are neither constitutive of nor sufficient for minds."[SUP][2][/SUP] "I can have any formal program you like, but I still understand nothing

جان سرل و هربرت دریفوس (فلاسفه ی مشهور دانشگاه برکلی که از مراکز تحقیقاتی پیشتاز در علوم شناختیcognitive science و فلسفه ی ذهن باشد) مدت هاست که به نقد AI پرداخته اند و از قضا این نقدهایشان با شکست پروژه های AI در دانشگاه MIT کلی هم جان گرفته اند.[SUP][URL="http://en.wikipedia.org/wiki/Chinese_room#cite_note-FOOTNOTESearle1980-0"]
[/URL][/SUP]


من هم نگفتم برای ابراز موضع شما نیست. گفتمان «اتاق چینی» می‌گوید که اگر یک ماشین بتواند تنها با یک فرآیند mapping ساده (پردازش محض) همه
جمله‌های زبان چینی را بدون نقص بازگردانی کند، آیا می‌توانیم آنرا خودآگاه بدانیم یا خیر. که این در راستای سخن شما است که خودآگاهی با پردازش تفاوت می‌کند.

هنگامیکه با نگاه به Strong AI، هوشمندی چیزی بیشتر از داشتن «رفتار هوشمندانه» نیست. اگر یک ماشین بتواند مانند یک آدم سخن
بگوید و گفتمان کند و کتاب بنویسد، پس خودآگاه و هوشمند نیز خواهد بود، اما دقت کنید که تراز پیچیدگی اینها با یکدیگر زمین تا آسمان فرق می‌کند.


در نمونه «اتاق چینی» در بهترین حالت اگر ساخت ماشین نامبرده را بدون داشتن خودآگاهی برای «برنامه
بازگردان» محال ندانیم، با یک سفسته پهلوان‌پنبه روبرو هستیم که هوشمندی را به بازگردانی نوشته ساده کرده است.


فعالیت‌های زیر به ترتیب پیچیدگی لیست شده‌اند:
  • جمع و تفریق و محاسبات چهارگانه
  • فهم نوشتاری (character recognition)
  • پیدا کردن کوتاه‌ترین مسیر در یک ماتریکس بدون تکرار کردن
  • جستجوی داده‌ها و سرچ
  • راه رفتن بسیار ساده و ابتدایی
  • فهم گفتاری (speech recognition)
  • بازگردانی و ترجمه پیشرفته (اتاق چینی)
  • فهم دیداری (pattern recognition) پیشرفته
  • راه رفتن و مسیریابی پیشرفته
  • فهم زبان گفتاری/نوشتاری
  • سخن گفتن (آزمون تورینگ)
  • کتاب نوشتن
  • فلسفه کردن
  • ...


ما شاید تا بازگردانی و ترجمه را بتوانیم با کامپیوتر‌های امروزین تا یک تراز قابل قبولی پیش ببریم، ولی انجام دادن کارهای پس از آن بی‌اندازه پیچیده
می‌شوند و نیاز به یک سیستم خودآگاه برای انجام دادن آنها خواهد رفت. یک ماشین بدون خودآگاهی نمی‌تواند از خود کتاب داستان بنویسد، چراکه از دید محاسباتی
و محدودیت‌های فیزیکی، برای ما ممکن نیست که بتوانیم «همه قانون‌ها» را در یک رویکرد mapping ساده (استدلال «اتاق چینی») یک ماشین یاد بدهیم. برای بازگردانی
شاید چنین رویکردی شُدنی باشد (بهترین نمونه آن Google translator است) ولی فراتر از آن، نیاز به خودآگاهی می‌رود.


راه استاندارد و درستی که برای هوشمندی ماشین پیشنهاد شده نیز همان آزمون تورینگ است:
نقل قول:آزمون تورینگ آزمونی برای سنجش میزان هوشمندی ماشین است. آزمون به این صورت انجام می‌گیرد که یک شخص به عنوان قاضی، با یک ماشین و
یک انسان به گفتگو می‌نشیند، و سعی در تشخیص ماشین از انسان دارد. در صورتی که ماشین بتواند قاضی را به گونه‌ای بفریبد که در قضاوت خود دچار اشتباه شود، توانسته است آزمون را با موفقیت پشت سر بگذارد.


پس اگر ما ماشینی داشته باشیم که همانند یک انسان بتواند «رفتار» کند، پس همانند انسان لزوما خودآگاهی نیز خواهد داشت، چراکه بدون خودآگاهی از پس همه فعالیت‌های آدمی برنخواهد آمد.
مهربد نوشته: درود،
در اینجا موضوع تندی محاسبه نیست، پیچیدگی بیشتر سیستم است.
پیچیدگی با این تعریف که interaction (خورد و بازخورد) درونی سیستم را پیچیدگی آن بدانیم.


در این تعریف، سنگ هم «هوش» دارد ولی آن اندازه که از نیروی گرانش پیروی کند، یک تک-یاخته نیز هوش دارد به آن اندازه که
می‌تواند انرژی را از پیرامون خود بگیرد و مصرف کند و تقسیم یاخته‌ای انجام دهد (mitosis). موجودات چند یاخته‌ای‌ اما هوش بیشتری
نسبت به یک تک-یاخته‌ای خواهند داشت، چرا که می‌توانند داده‌ها را میان خود به اشتراک بگذارند و .. همینگونه می‌رویم بالاتر تا می‌رسیم به جانداران
بسیار پیشرفته مانند آدمی که از چند تریلیون یاخته ساخته شده‌اند و تنها در مغز آدم نزدیک به 100 میلیارد یاخته نورونی در خورد و بازخورد پیوسته با یکدیگر هستند.

این خورد و بازخورد را ما می‌توانیم در یکان MIPS شمارش کنیم، از همینرو با داشتن پردازشگر و ترانزیستور
کافی و نرم‌افزار لازم، ما می‌توانیم یک جاندار زنده را به جای یاخته زیستی، با یاخته الکترونیکی درست کنیم.


نرم افزار ما همان «ذهن» گفته شده خواهد بود.

اما برای ساختن این نرم‌افزار ما همچنان چیزی به نام «ذهن» نمی‌نویسیم که برای نمونه رنگ ببیند، نرم‌افزار تنها
میان یاخته‌های ما یک بستر ارتباطی فراهم می‌کند تا یاخته‌ها بتوانند با یکدیگر خورد و بازخورد داده داشته باشند، با پیچیده‌تر شدن
سیستم، «ذهنیت» خود به خود آنجا شکل می‌گیرد، همانگونه که شعور و آگاهی از پیچیده‌تر شدن یاخته‌های زیستی شکل می‌گیرد.

این شیوه تنها راه یاد دادن کارهای پیشرفته مانند «فهم زبان گفتاری و نوشتاری» به ماشین نیز هست: Artificial Neural Networks





خودآگاهی و پردازش در حقیقت نمی‌توانند از یکدیگر جدا باشند. برای پردازش فعالیت‌‌های پیشرفته‌تر، خودآگاهی بایسته و لازم است.

این مسئله در هوش ساختگی به نام «اتاق چینی» معروف است:


Chinese room

It addresses the question: if a machine can convincingly simulate an intelligent conversation, does it necessarily understand? In the experiment Searle imagines himself in a room, acting as a computer by manually executing a program that convincingly simulates the behavior of a native Chinese speaker. People outside the room slide Chinese characters under the door and Searle, to whom "Chinese writing is just so many meaningless squiggles",[1] is able to create sensible replies, in Chinese, by following the instructions of the program; that is, by moving papers around. The question arises whether Searle can be said to understand Chinese in the same way that, as Searle says:

According to strong AI, . . . the appropriately programmed computer really is a mind, in the sense that computers given the right programs can be literally said to understand and have other cognitive states.[1]

مهربد گرامي
در تعريف، ذهن به اين امور مي پردازد: اندیشه، ادراک، حافظه، احساسات، امیال، تخیل و کلیه فرآیند شناخت ناخودآگاه. آيا كامپيوتر اميال، تخيل و فرآيندهاي شناخت ناخودآگاه دارد؟ آيا كامپيوتر مي انديشد؟ با تعريفي كه از ذهن ارائه شده حتي گفتن اينكه حيوانات ذهن دارند هم كار مشكلي است چه برسد به بي جانها.
سامان نوشته: مهربد گرامي
در تعريف، ذهن به اين امور مي پردازد: اندیشه، ادراک، حافظه، احساسات، امیال، تخیل و کلیه فرآیند شناخت ناخودآگاه. آيا كامپيوتر اميال، تخيل و فرآيندهاي شناخت ناخودآگاه دارد؟ آيا كامپيوتر مي انديشد؟ با تعريفي كه از ذهن ارائه شده حتي گفتن اينكه حيوانات ذهن دارند هم كار مشكلي است چه برسد به بي جانها.

درود،
این تعریف را از کجا آورده‌اید و چرا فکر می‌کنید ذهن با اندیشه، ادراک، حافظه و دیگر مفاهیم نامبرده لزوما سر و کار دارد؟


همچنین با این تعریف، آیا یک کودک 2 ساله که هیچ حافظه‌ای از دو سالگی خود نخواهد داشت، ذهن هم نخواهد داشت؟
مهربد نوشته: درود،
این تعریف را از کجا آورده‌اید و چرا فکر می‌کنید ذهن با اندیشه، ادراک، حافظه و دیگر مفاهیم نامبرده لزوما سر و کار دارد؟


همچنین با این تعریف، آیا یک کودک 2 ساله که هیچ حافظه‌ای از دو سالگی خود نخواهد داشت، ذهن هم نخواهد داشت؟
http://fa.wikipedia.org/wiki/ذهن
و
http://en.wikipedia.org/wiki/Mind
كودك 2 ساله هم حافظه، احساسات، اميال و كلا نا خودآگاه دارد. بنابراين ميتوان گفت ذهن دارد. شايد با اين حساب بتوان گفت ذهن كودك زماني پديدار ميشود كه چنين مفاهيمي براي وي مفهوم پيدا ميكنند. نكته ي ديگر اين است كه احتمالا سرعت پردازش مغز يك نوزاد ميبايست به اندازه ي فرد 30 ساله باشد. بنابراين سرعت پردازش مغز نميتواند مشخص كننده ي ذهن در موجودات باشد.
مهربد نوشته: من هم نگفتم برای ابراز موضع شما نیست. گفتمان «اتاق چینی» می‌گوید که اگر یک ماشین بتواند تنها با یک فرآیند mapping ساده (پردازش محض) همه
جمله‌های زبان چینی را بدون نقص بازگردانی کند، آیا می‌توانیم آنرا خودآگاه بدانیم یا خیر. که این در راستای سخن شما است که خودآگاهی با پردازش تفاوت می‌کند.

هنگامیکه با نگاه به Strong AI، هوشمندی چیزی بیشتر از داشتن «رفتار هوشمندانه» نیست. اگر یک ماشین بتواند مانند یک آدم سخن
بگوید و گفتمان کند و کتاب بنویسد، پس خودآگاه و هوشمند نیز خواهد بود، اما دقت کنید که تراز پیچیدگی اینها با یکدیگر زمین تا آسمان فرق می‌کند.


در نمونه «اتاق چینی» در بهترین حالت اگر ساخت ماشین نامبرده را بدون داشتن خودآگاهی برای «برنامه
بازگردان» محال ندانیم، با یک سفسته پهلوان‌پنبه روبرو هستیم که هوشمندی را به بازگردانی نوشته ساده کرده است.


فعالیت‌های زیر به ترتیب پیچیدگی لیست شده‌اند:

جمع و تفریق و محاسبات چهارگانه
فهم نوشتاری (character recognition)
پیدا کردن کوتاه‌ترین مسیر در یک ماتریکس بدون تکرار کردن
جستجوی داده‌ها و سرچ
راه رفتن بسیار ساده و ابتدایی
فهم گفتاری (speech recognition)
بازگردانی و ترجمه پیشرفته (اتاق چینی)
فهم دیداری (pattern recognition) پیشرفته
راه رفتن و مسیریابی پیشرفته
فهم زبان گفتاری/نوشتاری
سخن گفتن (آزمون تورینگ)
کتاب نوشتن
فلسفه کردن
...



ما شاید تا بازگردانی و ترجمه را بتوانیم با کامپیوتر‌های امروزین تا یک تراز قابل قبولی پیش ببریم، ولی انجام دادن کارهای پس از آن بی‌اندازه پیچیده
می‌شوند و نیاز به یک سیستم خودآگاه برای انجام دادن آنها خواهد رفت. یک ماشین بدون خودآگاهی نمی‌تواند از خود کتاب داستان بنویسد، چراکه از دید محاسباتی
و محدودیت‌های فیزیکی، برای ما ممکن نیست که بتوانیم «همه قانون‌ها» را در یک رویکرد mapping ساده (استدلال «اتاق چینی») یک ماشین یاد بدهیم. برای بازگردانی
شاید چنین رویکردی شُدنی باشد (بهترین نمونه آن Google translator است) ولی فراتر از آن، نیاز به خودآگاهی می‌رود.


راه استاندارد و درستی که برای هوشمندی ماشین پیشنهاد شده نیز همان آزمون تورینگ است:
آزمون تورینگ آزمونی برای سنجش میزان هوشمندی ماشین است. آزمون به این صورت انجام می‌گیرد که یک شخص به عنوان قاضی، با یک ماشین و
یک انسان به گفتگو می‌نشیند، و سعی در تشخیص ماشین از انسان دارد. در صورتی که ماشین بتواند قاضی را به گونه‌ای بفریبد که در قضاوت خود دچار اشتباه شود، توانسته است آزمون را با موفقیت پشت سر بگذارد.

پس اگر ما ماشینی داشته باشیم که همانند یک انسان بتواند «رفتار» کند، پس همانند انسان لزوما خودآگاهی نیز خواهد داشت، چراکه بدون خودآگاهی از پس همه فعالیت‌های آدمی برنخواهد آمد.
مدعای «برای انجام رفتار "هوشمندانه" نیاز به خودآگاهی است» دلیل می خواهد.
درواقع برای انجام X چه نیازی به آگاهی از انجام X وجود دارد؟
(X = عملی هوشمندانه از هرگونه پیچیدگی)

اگر عمل هوشمندانه صرفا از یک سری رویداد عِلی و مطلقا منفعل حاصل شود حالا دیگر "آگاهی از این عمل هوشمندانه" را کجای این پروسه، و چگونه قرار خواهید داد؟
«اتاق چینی» هم هیچ ربطی به "تراز پیچیدگی" عمل مد نظرش ندارد. مثال تنها میخواهد یک اصل را نشان دهد (اینکه وجود یک سری کنش و واکنش نیازی به باخبر بودن از آنها ندارد) که برای هر عمل به اصلاح "هوشمندانه ای" از هر پیچیدگی صادق خواهد بود.

مهربد نوشته: کیفیت چیزی بیشتر از همان خورد و بازخورد نیست.
همانگونه که «خورد و بازخورد» میان مولکول‌های H2O به کیفیت آب می‌انجماد، خورد و بازخورد میان نورون‌های مغزی نیز به qualia می‌انجامد.
خوب این یک تمثیل مع الفارق واضح است.
با تحلیل علمی واژگان استفاده شده، میتوان دید که کیفیات (فیزیکی) آب همان خورد و بازخود ماده هستند. (برای نمونه "کیفیت" مایع بودن آب را میتوان با مقدار انرژی جنبشی ملکول های آب و یا فاکتور های فیزیکی دیگر تعریف کرد)
حالا شما دیدن رنگ قرمز (یک qualia ) را چگونه میتوانید با "خورد و بازخورد" تعریف کنید؟
مدعای پیشین من این این بودن نه تنها چنین تعریفی کشف نشده بلکه چنین چیزی یک خطای مقولی (Category Mistake) هم خواهد بود.
سامان نوشته: http://fa.wikipedia.org/wiki/ذهن
و
http://en.wikipedia.org/wiki/Mind
كودك 2 ساله هم حافظه، احساسات، اميال و كلا نا خودآگاه دارد. بنابراين ميتوان گفت ذهن دارد. شايد با اين حساب بتوان گفت ذهن كودك زماني پديدار ميشود كه چنين مفاهيمي براي وي مفهوم پيدا ميكنند. نكته ي

و چنانکه در همان نمونه نیز می‌توان دید، مغز کودک با رُشد کردن و بیشتر کردن یاخته‌های مغزی به پدیدار شدن «ذهن» می‌انجامد، که این دقیقا همان چیزی است که گفتیم!

به بیان دیگر، اگر مغز یک کودک از یک اندازه‌ای بیشتر رُشد نکند (واپس‌مانده یا همان عقب‌مانده) باشد، هیچگاه خودآگاهی و «ذهن» گفته شده نیز پدیدار نخواهد شد. نمونه زنده آن را هم در کابینه دولت ‌پیدا کنید!

اما از سوی دیگر، همان «ذهن» شکل گرفته و پدیدار شده نیز، زمانی که فرد 80 ساله می‌شود و آلزایمر می‌گیرد، با از دست
دادن‌های یاخته‌های مغزی (نورونی) جایگزین‌ناپذیر خود، به آهستگی و تدریج «ذهن» و آگاهی از بودن خود را از دست می‌دهد.



سامان نوشته: ديگر اين است كه احتمالا سرعت پردازش مغز يك نوزاد ميبايست به اندازه ي فرد 30 ساله باشد. بنابراين سرعت پردازش مغز نميتواند مشخص كننده ي ذهن در موجودات باشد.

تندی پردازش یکی از بایستگی‌ها برای خودآگاهی است و اینکه خیر، مغز یک کودک دو ساله قطعا اندازه یک فرد 30 ساله تند نیست![COLOR="Silver"]



---------- ارسال جدید اضافه شده در 01:46 PM ---------- ارسال قبلی در 01:45 PM ----------



[/COLOR]
فیلیپ نوشته: مدعای «برای انجام رفتار "هوشمندانه" نیاز به خودآگاهی است» دلیل می خواهد.
درواقع برای انجام X چه نیازی به آگاهی از انجام X وجود دارد؟
(X = عملی هوشمندانه از هرگونه پیچیدگی)

از آنجاییکه به صورت فیزیکی، برای هیچ کامپیوتر یا جاندار زنده‌ای در جهان این امکان وجود
ندارد که با mapping بتواند کارهایی که نیاز به یک تراز ویژه‌ای از هوشمندی دارند را انجام دهد.


برای درک ساده‌تر، هر آدمی با یادگیری قانون‌های شطرنج می‌تواند آغاز به بازی کند، ولی هیچ آدم و یا ماشینی نمی‌تواند همه حرکت‌های شُدنی در شطرنج را در برنامه
خود داشته باشد. چرایی آن به این بازمی‌گردد که شُمار حرکت‌های ممکن و شُدنی در شطرنح عددی نزدیک به [عکس: 2.png] یا 43^10 (http://en.wikipedia.org/wiki/Shannon_number) می‌باشد.

کنار آن بیافزایید که شمار تکه‌های (particles) سازنده جهان ما نزدیک به 100^10 تخمین زده است.

به بیان دیگر، شما نمی‌توانید هیچ ماشین با RAM و یا آدم و مغزی داشته باشید که همه این داده‌ها در آن جا بگیرد.

پس نمی‌توان برای یک بازی ساده مانند شطرنج هم برنامه‌ای نوشت که از روی حافظه (mapping) بازی کند.


«خودآگاهی» اما در اینجا ابزاری است که به سیستم اجازه می‌دهد با بکارگیری هوشمندانه منابع (resource)
ذهنی/مغزی، بتواند تنها یک یا دو حرکت فراتر (و یا در بازی‌کن‌های پیشرفته شطرنج، تا 10 حرکت و بیشتر پیش رو را) ببیند.


در این جایگاه، خودآگاهی بمانند فانوسی است که در شب (جهان ناشناخته) تنها به ما اجازه می‌دهد
دو گام فراتر از خودمان را ببینیم؛ که البته دیدن همان دو گام برای رسیدن به هر نقطه‌ای کافی خواهد بود.




فیلیپ نوشته: «اتاق چینی» هم هیچ ربطی به "تراز پیچیدگی" عمل مد نظرش ندارد. مثال تنها میخواهد یک اصل را نشان دهد (اینکه وجود یک سری کنش و واکنش نیازی به باخبر بودن از آنها ندارد) که برای هر عمل به اصلاح "هوشمندانه ای" از هر پیچیدگی صادق خواهد بود.

چنانکه گفتیم، نمونه «اتاق چینی» در بهترین حالت (که اگر شُدنی باشد، به نمونه شطرنج بالا
نگاه کنید) چیزی را اثبات نمی‌کند جز آنکه بازگردانی و ترجمه از چینی پیچیدگی چندانی ندارد.


به بیان دیگر، نمی‌توان از روی محدودیت‌های «فیزیکی»، ماشینی نوشت که با داشتن همه گفتگوها در حافظه خود،
بتواند با شما درباره هر چیزی گفتگو کند، ولی شاید بتوان ماشینی نوشت که بتواند همه جمله‌های دو زبان را به یکدیگر بازگردانی کند.

نوشتن ماشینی که گفتگو کند تنها زمانی شُدنی است که آن ماشین بتواند «فکر» کرده و بتواند پس از هر جمله مقابل، با فکر کردن جمله خود را در دنباله بگوید.




فیلیپ نوشته: خوب این یک تمثیل مع الفارق واضح است.
با تحلیل علمی واژگان استفاده شده، میتوان دید که کیفیات (فیزیکی) آب همان خورد و بازخود ماده هستند. (برای نمونه "کیفیت" مایع بودن آب را میتوان با مقدار انرژی جنبشی ملکول های آب و یا فاکتور های فیزیکی دیگر تعریف کرد)
حالا شما دیدن رنگ قرمز (یک qualia ) را چگونه میتوانید با "خورد و بازخورد" تعریف کنید؟
  • زد و بازخورد میان مولکول‌های H2O = آب
  • زد و بازخورد میان یاخته‌های مغزی = qualia

شما چگونه می‌تواند کیفیت آب را از روی زد و بازخورد H2O تعریف کنید، همانگونه هم qualia را از زد و بازخورد Neuron تعریف کنید.



فیلیپ نوشته: مدعای پیشین من این این بودن نه تنها چنین تعریفی کشف نشده بلکه چنین چیزی یک خطای مقولی (Category Mistake) هم خواهد بود.

چنین تعریفی دیر زمانی است که کشف شده و می‌تواند مانند همین گفته‌ شما:

فیلیپ نوشته: (برای نمونه "کیفیت" مایع بودن آب را میتوان با مقدار انرژی جنبشی ملکول های آب و یا فاکتور های فیزیکی دیگر تعریف کرد)

کیفیت ذهنی آدم را نیز با اندازه انرژی آزاد شده و دیگر فاکتور‌های فیزیکی میان یاخته‌های مغزی به کمک دستگاه‌هایی مانند Electroencephalography (EEG):
[عکس: 1.jpg]

Electroencephalography (EEG) is the recording of electrical activity along
the scalp. EEG measures voltage fluctuations resulting from ionic current
flows within the neurons of the brain.

و یا Functional magnetic resonance imaging (fMRI) می‌توان اندازه گیری نمود.



فیلیپ نوشته: اگر عمل هوشمندانه صرفا از یک سری رویداد عِلی و مطلقا منفعل حاصل شود حالا دیگر "آگاهی از این عمل هوشمندانه" را کجای این پروسه، و چگونه قرار خواهید داد؟

تعریف «خودآگاهی» می‌شود:
  • موجودی که از هستی خود آگاه باشد.

همانگونه که موجود می‌تواند از هستی و بودن «خورشید» آگاه باشد، می‌تواند از هستی «خویش» نیز آگاه باشد و این همه بحث خودآگاهی است.

تعریف «آگاهی»:
  • داشتن دانش (حافظه، الگو) از یک چیز

پس یک ماشین لباس‌شویی هم یک آگاهی پایه‌ای در برنامه خود از اینکه چگونه لباس بشوید دارد و چیزی ماوراالطبیعه و خارق‌العاده در این «آگاهی» نهفته نیست.




اکنون اینکه دیگر این آگاهی به قول شما اصیل و راستین است و از روح! می‌آید و یا
صرفا «علی و مطلقا منفعل» است به گفتمان «اراده آزاد» می‌رسد و فراتر از فرهشت این جُستار است.
فیلیپ نوشته: تعریف:
«انتخاب» هنگامیست که شخص کاری انجام داده (یا یک حالت ذهنی دارد) اما [STRIKE]-- در همان شرایط --[/STRIKE] میتوانسته آن کار را انجام ندهد (یا آن حالت ذهنی را نداشته باشد)

برای تمامی حالات ذهنی/کارهای ما صادق خواهد بود و واضحا نتایج نامعقولی خواهد داشت. برای نمونه، دیدن و درد هم حالات ذهنی میباشند که می توانند وجود نداشته باشند، اما این پدیدها هیچ گاه «انتخاب» تلقی نمی شوند.
به نظر من، فعل 'توانستن' به طور ضمنی بر آگاهانه بودن این کارها یا حالات ذهنی دلالت دارد. می توان شرط آگاهانه بودن را برای حالات ذهنی اضافه کرد، اما از آنجا که ما تنها در مورد دسته خاصی از انتخابها بحث می کنیم، به نظرم این کار ضروری نمی آید.

فیلیپ نوشته: «مدلل» صفت «انتخاب» بود و به همین خاطر میبایست همراه واژه ی «انتخاب» حذف می شد .
و اما اشکال توجیه شما (اینکه تفکر عاری از اراده میتواند اساس خردمندانگی باشد) را میتوان از دو زاویه مطرح کرد.
1. اگر تفکر دیترمنیستی باشد، آنگاه باور شما به p صرفا به این خاطر است که شما امکان باور به P¬ را نداشته اید. درواقع شما به ناچار به p باور دارید. و این قضیه به وضوح نمی تواند اساسی برای خردمندانگی باشد.
2. اگر ویژگی "انتخاب" از پروسه ی تفکر سلب شود، آنگاه آنچه باقی می ماند تنها یک «آگاهی مطلقا passive (واژه ی همسان فارسی: واکنشپذیر؟)» است. درواقع در این حالت شما چیز بیشتری از تماشاچی یک سری واکنش فیزیکی (که حالا به طریقی به صورت باور و گزاره برای شما پدیدار شده اند) نخواهید بود. و همانطور که در پست پیشین گفتیم، صرف داشتن و آگاه بودن از یک سری گزاره، نمی تواند تعریفی برای خردمندانگی باشد.
پرسش در اینجاست که آیا قوانین مشخص و دقیقی برای تشخیص 'مدلل' بودن انتخاب گزاره ها وجود دارد؟ اگر بله، آیا نمی توان آنها را بر روی یک کامپیوتر برنامه نویسی کرد؟
به نظر من، گره بحث من و شما در اینست که مشترکات ما دقیقاً روشن نیست. مثلاً در حالت ایده آل، اگر ما در ابتدای بحث، یک سیستم فرمال را بطور مشترک پذیرفته بودیم و استدلال را تنها در چارچوب اصول موضوعه و قواعد استنتاج این سیستم معتبر می دانستیم، آنگاه استدلال های شخص خردمند نیز تنها در این چارچوب برای ما معتبر می بود و در این مورد، یعنی تشخیص اینکه آیا گزاره "انسان دارای آزاد است" یک قضیه است یا خیر، اراده آزاد کمکی به این شخص نمی کرد. در چنین حالتی، اینجانب به میان آوردن مفهوم خردمندی را یک واسطه زائد می دانستم.

فیلیپ نوشته: اگر اراده ی آزاد وجود نداشته باشد، آنگاه خردمندانگی ممکن نیست (در بیانی دیگر: اراده ی آزاد از جنبه های واجب خردمندانگی است؛ چنانچه در بالا توضیح داده شد)
اگر خردمندانگی ممکن باشد، آنگاه ارده ی آزاد لزوما وجود دارد.

گزاره ی اول که در بالا ثابت شده و باقی نیز از نفی تالیش می آید.
فرض کنید k عددی صحیح است:

اگر k زوج باشد، آنگاه فرد بودنِ k ممکن نیست.
اگر فرد بودنِ k ممکن باشد، آنگاه k فرد است.

نتیجه استدلال بالا به طور واضح نادرست است، همانطور که نتیجه استدلال شما نادرست است؛ اگر هر دو گزینه وجود یا نبود اراده آزاد، ممکن باشد، آنگاه مقدم درست، اما تالی نادرست است.

اما به نظر شما ایراد استدلال در کجاست؟

53


مهربد نوشته: و چنانکه در همان نمونه نیز می‌توان دید، مغز کودک با رُشد کردن و بیشتر کردن یاخته‌های مغزی به پدیدار شدن «ذهن» می‌انجامد، که این دقیقا همان چیزی است که گفتیم!

به بیان دیگر، اگر مغز یک کودک از یک اندازه‌ای بیشتر رُشد نکند (واپس‌مانده یا همان عقب‌مانده) باشد، هیچگاه خودآگاهی و «ذهن» گفته شده نیز پدیدار نخواهد شد. نمونه زنده آن را هم در کابینه دولت ‌پیدا کنید!

اما از سوی دیگر، همان «ذهن» شکل گرفته و پدیدار شده نیز، زمانی که فرد 80 ساله می‌شود و آلزایمر می‌گیرد، با از دست
دادن‌های یاخته‌های مغزی (نورونی) جایگزین‌ناپذیر خود، به آهستگی و تدریج «ذهن» و آگاهی از بودن خود را از دست می‌دهد.
خوب اين چيزي است كه از ابتدا هم مد نظر من بود. بحث جديد از آنجا شكل گرفت كه شما فرموديد كامپيوتر ذهن دارد. منتها الان فكر ميكنم با تعريفي كه از ذهن ارائه شده ميتوان گفت:
ذهن مختص انسان (و با اندكي تخفيف حيوانات) است.
در اينكه ذهن مادي است هم فعلا با شما موافقم.





مهربد نوشته: تندی پردازش یکی از بایستگی‌ها برای خودآگاهی است و اینکه خیر، مغز یک کودک دو ساله قطعا اندازه یک فرد 30 ساله تند نیست!

اين هم درست است ولي سرعت پردازش معيار وجود ذهن نيست.
يعني به نظر شما يك كودك 2 ساله ديرتر از يك فرد 30 ساله احساس دوست داشتن مادرش را ميكند و او را ميبوسد؟
صفحات: 1 2 3 4 5 6 7 8 9 10 11 12 13 14