یکشنبه، خرداد ۱۴، ۱۳۸۵

ذهن و دانشِ توزیع‌شده

در اولین (و تا امروز آخرین) باری که مسعود برجیان عزیز را دیدم (قضیه برمی‌گردد به پنج‌شش ماه پیش)، نمی‌دانم چطور شد که به مسئله‌ی ذهن و شیوه‌ی فکر کردن و آموختن آن رسیدیم. آنجا من هر چه تلاش کردم، نتوانستم چگونگی این فرآیند (فکر کردن) را توضیح دهم. وقتی از توضیح‌دادن چیزی عاجزید، که یا اصلاً آن را ندانید و یا اینکه بدانید، اما هیچگاه کلیت آن را پیش خود ترسیم نکرده و راهی برای آموزش آن به دیگران، برای خود، مجسم نساخته باشید. گرچه احتمالاً من در حالت اول بوده‌ام؛ اما اکنون می‌کوشم، کمی با این مسئله کلنجار بروم، بلکه بتوانم، بیان آن را ساده‌تر کنم. حالا چرا با این میزان تأخیر؟ خودم هم نمی‌دانم، چطور یک‌دفعه یاد این موضوع افتادم. شاید از فرط بی‌سوژگی!

مغز، مجموعه‌ای از سلول‌های عصبی
عموماً فهم این که در مغز چه اتفاقی می‌افتد، که ما چیزی را تشخیص می‌دهیم، خیلی با آنچه پیش از این در مسائل مربوط به تفکر با آن روبه‌رو بوده‌ایم، هماهنگی ندارد. این ناهماهنگی وقتی بیش‌تر می‌شود، که ما سادگی وقوع این امر را ببینیم. قابل باور نیست، که چنین ساختار ساده‌ای، قادر به چنان عملکرد پیچیده‌ای باشد.
تمام مغز از ارتباط سلول‌های ساده‌ی عصبی‌ای که ساختار آن‌ها را در زیست دبیرستان دیده‌ایم تشکیل شده است. ساختاری متشکل از: (آکسون، هسته و دندریت‌ها). جالب این‌که در فرآیند آموختن، تنها تغییری که اعمال می‌شود، در میزان ارتباط بین عصب‌ها و یا تغییر هسته است، که در اثر این تغییرات، میزان برق انتقالی از یک سلول به دیگری و یا از ورودی یک سلول به خروجی آن تغییر می‌کند.
تعداد این سلول‌ها حدود 100 میلیارد و تعداد سیناپس‌های آن‌ها حدود 100تریلیارد (10 به توان 14) است. و سیکل زمانی در آن حدود یک هزارم ثانیه (یعنی هر ثانیه هزار بار جریان الکتریکی در مغز می‌چرخد).

سهل ممتنع
البته در جهان اطراف ما از این سهل‌های ممتنع زیاد هستند. جایی شنیدم که در ساخت انیمیشن، به‌دست‌آوردن معادله‌ی حرکت مو، یکی از مشکل‌ترین قسمت‌های کار است. ما فقط می‌بینیم که مو به سادگی در اثر جریان باد حرکت می‌کند، اما شبیه‌سازی این حرکت، معادلات دیفرانسیل پیچیده‌ای (به مراتب پیچیده‌تر از معادله‌ی لاپلاسین، غشایِ مستطیل و انتقال گرمایی که در ریاضی مهندسی می‌خوانیم) را طلب می‌کند. کار مغز نیز چنین است. عملکرد ساده‌ای که البته تابع معادلات پیچیده‌ای است.

شبکه‌ی عصبی مصنوعی
در شبکه‌های عصبی مصنوعی می‌کوشند، این عملکرد را، البته در شکلی به مراتب ساده‌تر و با معادلاتی سهل‌الوصول‌تر شبیه‌سازی کنند، گاهی هم اساساً از این مکانیزم عدول می‌کنند و راهی ساده‌تر در پیش می‌گیرند. فعلاً هم تا جایی که من دیده‌ام، از آن بیش‌تر در تشخیص، تطبیق و تفکیک الگوها استفاده می‌شود. در شبکه‌ی عصبی مصنوعی نیز سلول‌هایی به هم متصل داریم، که البته عموماً در چند لایه‌ی جداگانه به هم متصل می‌شوند، تا طراح آن‌ها گیج نشود! و برای هر لایه، یا برای تمامی لایه‌ها یک "مکانیسم تغییر (Adaptation)" طراحی می‌شود، که در هر دور آموزش، با مقایسه‌ی خروجی خواسته شده از آن (در قبال یک مجموعه ورودی معین) و خروجی‌ای که خود تولید کرده، سعی می‌کند خروجی خود را بهبود بخشد و آن را به نتیجه‌ای که از او خواسته‌اند، نزدیک‌تر سازد. با این کار به تدریج شبکه‌ی عصبی می‌آموزد که از او چه می‌خواهند و مطابق میل سازندگان، برای هر ورودی، خروجی‌ای معین را تولید می‌کند. اینک شبکه‌ی عصبی خبره شده است و می‌تواند به جای انسان یا سیستم خبره قرار گیرد.

دانش توزیع‌شده، دانشی مطمئن
حُسن بزرگ این چنین ساختاری این است، که دانش در سلول‌های آن توزیع شده است و با از دست رفتن بخشی از این سلول‌ها، (گر چه بر عدم قطعیت نتیجه‌ی خروجی افزوده می‌شود) همچنان خروجی قابل اطمینانی تولید می‌شود.

فراموش کردن
در ذهن ما هیچ چیزی ازبین نمی‌رود. یعنی چیزی معادل delete information‌ی که در کامپیوتر داریم، در ذهن وجود ندارد. در ذهن چیزها فراموش می‌شوند و هر چیزی که فراموش شود، می‌تواند دوباره به یاد آورده شود. فرایند فراموشی و به‌یادآوردن، عیناً در شبکه‌ی عصبی مصنوعی نیز وجود دارد. هنگامیکه اطلاعات بیش از حد معمول به شبکه تزریق شود، عدم قطعیت در ان به حدی می‌رسد، که برخی از چیزهایی را که یادگرفته، ممکن است درست به‌یادنیاورد. آموزش دوباره‌ی آن‌ها به شبکه‌ی عصبی مصنوعی باعث می‌شود، شبکه آن‌ها را دوباره به‌یادآورد و در عوض اطلاعات دیگری را که معلوم نیست کدام‌ها هستند، را از یاد ببرد.
در کل عملکرد ذهن از بعضی لحاظ به شبکه‌ی عصبی می‌ماند و از بعضی لحاظ با آن تفاوتی عمیق دارد. فی‌المثل در این‌که ذهن در حین عملکرد عادی خود می‌آموزد، در حالیکه در شبکه‌های عصبی معمولاً دوره‌ی آموزش و به‌کارگیری تفکیک‌شده هستند. فهم این که واقعاً در ذهن چه اتفاقی می‌افتد، در سه زمینه‌ی روان‌شناسی، پزشکی و هوش مصنوعی، رو به پیشرفت است، اما راه زیادی تا یافت فهمی که بتوان آن را دقیق نامید، وجود دارد.

لو دادن منابع!
برای فهم بیش‌تر درباره‌ی شبکه‌های عصبی مصنوعی می‌توانید به کتاب: لورنس فوسه (Fundamentals of Neural networks, Laurence Fausett, 1994, Prentice-Hall.) که البته کمی قدیمی است، مراجعه کنید. حوصله هم نداشتید، یا فصل 19 کتاب هوش مصنوعیِ راسل را بخوانید و یا به ویکیپدیا رجوع کنید. کتاب جامعه‌ی ذهنِ مینسکی هم کتاب جالبی در این زمینه است. ضمناً تمام این‌هایی که در بالا آمد به شرطی درست است که: 1) کتاب‌هایی که من دیده‌ام مطالب درستی (یا به‌عبارتی مطالب درست‌تر را) نوشته باشند. 2) مطالب درست‌تر، به چشم و گوش من رسیده باشد. 3)برداشت‌های من از آن‌ها درست بوده باشد.

۴ نظر:

  1. بلاگ نیوز به این مطلب شما لینک داد .

    پاسخحذف
  2. سلام محسن جان!
    بحث آن روز ما درباره‌ي مطالعه بود و اينكه آيا كتابي كه مي‌خوانيم صرفاً براي پز دادن و عقب نماندن از قافله‌ي كتاب‌خوانان است تا مبادا در برابر اين سؤال كه آيا فلان كتاب را خوانده‌اي مجبور به پاسخ منفي نشويم يا براي يادگيري.
    بعد بحث كشيد به نحوه‌ي بايگاني مطالب و خوانده‌ها در حافظه و اينكه چرا بسياري از خوانده‌ها از ذهن انسان پاك مي‌شود و تنها بخشي از آن باقي مي‌ماند.
    شما استدلال مي‌كردي كه هيچ مطلب و خوانده‌اي از ذهن خواننده پاك نمي‌شود و حافظه هرگز چيزي را دور نمي‌اندازد.
    بحث به اينجا رسيد كه شما هم به نحوه‌ي بايگاني مطالب در حافظه و يادآوري آنها پرداختي.
    خوشحالم كه آن گفت‌وگو را قلمي كرده‌اي.
    پايا و پويا باشي.

    پاسخحذف
  3. مسعود جان!
    متشکرم از این که یادآوری کردی
    چه خوب همه چیز در ذهنت مانده.

    پاسخحذف