در اولین (و تا امروز آخرین) باری که مسعود برجیان عزیز را دیدم (قضیه برمیگردد به پنجشش ماه پیش)، نمیدانم چطور شد که به مسئلهی ذهن و شیوهی فکر کردن و آموختن آن رسیدیم. آنجا من هر چه تلاش کردم، نتوانستم چگونگی این فرآیند (فکر کردن) را توضیح دهم. وقتی از توضیحدادن چیزی عاجزید، که یا اصلاً آن را ندانید و یا اینکه بدانید، اما هیچگاه کلیت آن را پیش خود ترسیم نکرده و راهی برای آموزش آن به دیگران، برای خود، مجسم نساخته باشید. گرچه احتمالاً من در حالت اول بودهام؛ اما اکنون میکوشم، کمی با این مسئله کلنجار بروم، بلکه بتوانم، بیان آن را سادهتر کنم. حالا چرا با این میزان تأخیر؟ خودم هم نمیدانم، چطور یکدفعه یاد این موضوع افتادم. شاید از فرط بیسوژگی!
مغز، مجموعهای از سلولهای عصبی
عموماً فهم این که در مغز چه اتفاقی میافتد، که ما چیزی را تشخیص میدهیم، خیلی با آنچه پیش از این در مسائل مربوط به تفکر با آن روبهرو بودهایم، هماهنگی ندارد. این ناهماهنگی وقتی بیشتر میشود، که ما سادگی وقوع این امر را ببینیم. قابل باور نیست، که چنین ساختار سادهای، قادر به چنان عملکرد پیچیدهای باشد.
تمام مغز از ارتباط سلولهای سادهی عصبیای که ساختار آنها را در زیست دبیرستان دیدهایم تشکیل شده است. ساختاری متشکل از: (آکسون، هسته و دندریتها). جالب اینکه در فرآیند آموختن، تنها تغییری که اعمال میشود، در میزان ارتباط بین عصبها و یا تغییر هسته است، که در اثر این تغییرات، میزان برق انتقالی از یک سلول به دیگری و یا از ورودی یک سلول به خروجی آن تغییر میکند.
تعداد این سلولها حدود 100 میلیارد و تعداد سیناپسهای آنها حدود 100تریلیارد (10 به توان 14) است. و سیکل زمانی در آن حدود یک هزارم ثانیه (یعنی هر ثانیه هزار بار جریان الکتریکی در مغز میچرخد).
سهل ممتنع
البته در جهان اطراف ما از این سهلهای ممتنع زیاد هستند. جایی شنیدم که در ساخت انیمیشن، بهدستآوردن معادلهی حرکت مو، یکی از مشکلترین قسمتهای کار است. ما فقط میبینیم که مو به سادگی در اثر جریان باد حرکت میکند، اما شبیهسازی این حرکت، معادلات دیفرانسیل پیچیدهای (به مراتب پیچیدهتر از معادلهی لاپلاسین، غشایِ مستطیل و انتقال گرمایی که در ریاضی مهندسی میخوانیم) را طلب میکند. کار مغز نیز چنین است. عملکرد سادهای که البته تابع معادلات پیچیدهای است.
شبکهی عصبی مصنوعی
در شبکههای عصبی مصنوعی میکوشند، این عملکرد را، البته در شکلی به مراتب سادهتر و با معادلاتی سهلالوصولتر شبیهسازی کنند، گاهی هم اساساً از این مکانیزم عدول میکنند و راهی سادهتر در پیش میگیرند. فعلاً هم تا جایی که من دیدهام، از آن بیشتر در تشخیص، تطبیق و تفکیک الگوها استفاده میشود. در شبکهی عصبی مصنوعی نیز سلولهایی به هم متصل داریم، که البته عموماً در چند لایهی جداگانه به هم متصل میشوند، تا طراح آنها گیج نشود! و برای هر لایه، یا برای تمامی لایهها یک "مکانیسم تغییر (Adaptation)" طراحی میشود، که در هر دور آموزش، با مقایسهی خروجی خواسته شده از آن (در قبال یک مجموعه ورودی معین) و خروجیای که خود تولید کرده، سعی میکند خروجی خود را بهبود بخشد و آن را به نتیجهای که از او خواستهاند، نزدیکتر سازد. با این کار به تدریج شبکهی عصبی میآموزد که از او چه میخواهند و مطابق میل سازندگان، برای هر ورودی، خروجیای معین را تولید میکند. اینک شبکهی عصبی خبره شده است و میتواند به جای انسان یا سیستم خبره قرار گیرد.
دانش توزیعشده، دانشی مطمئن
حُسن بزرگ این چنین ساختاری این است، که دانش در سلولهای آن توزیع شده است و با از دست رفتن بخشی از این سلولها، (گر چه بر عدم قطعیت نتیجهی خروجی افزوده میشود) همچنان خروجی قابل اطمینانی تولید میشود.
فراموش کردن
در ذهن ما هیچ چیزی ازبین نمیرود. یعنی چیزی معادل delete informationی که در کامپیوتر داریم، در ذهن وجود ندارد. در ذهن چیزها فراموش میشوند و هر چیزی که فراموش شود، میتواند دوباره به یاد آورده شود. فرایند فراموشی و بهیادآوردن، عیناً در شبکهی عصبی مصنوعی نیز وجود دارد. هنگامیکه اطلاعات بیش از حد معمول به شبکه تزریق شود، عدم قطعیت در ان به حدی میرسد، که برخی از چیزهایی را که یادگرفته، ممکن است درست بهیادنیاورد. آموزش دوبارهی آنها به شبکهی عصبی مصنوعی باعث میشود، شبکه آنها را دوباره بهیادآورد و در عوض اطلاعات دیگری را که معلوم نیست کدامها هستند، را از یاد ببرد.
در کل عملکرد ذهن از بعضی لحاظ به شبکهی عصبی میماند و از بعضی لحاظ با آن تفاوتی عمیق دارد. فیالمثل در اینکه ذهن در حین عملکرد عادی خود میآموزد، در حالیکه در شبکههای عصبی معمولاً دورهی آموزش و بهکارگیری تفکیکشده هستند. فهم این که واقعاً در ذهن چه اتفاقی میافتد، در سه زمینهی روانشناسی، پزشکی و هوش مصنوعی، رو به پیشرفت است، اما راه زیادی تا یافت فهمی که بتوان آن را دقیق نامید، وجود دارد.
لو دادن منابع!
برای فهم بیشتر دربارهی شبکههای عصبی مصنوعی میتوانید به کتاب: لورنس فوسه (Fundamentals of Neural networks, Laurence Fausett, 1994, Prentice-Hall.) که البته کمی قدیمی است، مراجعه کنید. حوصله هم نداشتید، یا فصل 19 کتاب هوش مصنوعیِ راسل را بخوانید و یا به ویکیپدیا رجوع کنید. کتاب جامعهی ذهنِ مینسکی هم کتاب جالبی در این زمینه است. ضمناً تمام اینهایی که در بالا آمد به شرطی درست است که: 1) کتابهایی که من دیدهام مطالب درستی (یا بهعبارتی مطالب درستتر را) نوشته باشند. 2) مطالب درستتر، به چشم و گوش من رسیده باشد. 3)برداشتهای من از آنها درست بوده باشد.
بلاگ نیوز به این مطلب شما لینک داد .
پاسخحذفمتشکرم
پاسخحذفسلام محسن جان!
پاسخحذفبحث آن روز ما دربارهي مطالعه بود و اينكه آيا كتابي كه ميخوانيم صرفاً براي پز دادن و عقب نماندن از قافلهي كتابخوانان است تا مبادا در برابر اين سؤال كه آيا فلان كتاب را خواندهاي مجبور به پاسخ منفي نشويم يا براي يادگيري.
بعد بحث كشيد به نحوهي بايگاني مطالب و خواندهها در حافظه و اينكه چرا بسياري از خواندهها از ذهن انسان پاك ميشود و تنها بخشي از آن باقي ميماند.
شما استدلال ميكردي كه هيچ مطلب و خواندهاي از ذهن خواننده پاك نميشود و حافظه هرگز چيزي را دور نمياندازد.
بحث به اينجا رسيد كه شما هم به نحوهي بايگاني مطالب در حافظه و يادآوري آنها پرداختي.
خوشحالم كه آن گفتوگو را قلمي كردهاي.
پايا و پويا باشي.
مسعود جان!
پاسخحذفمتشکرم از این که یادآوری کردی
چه خوب همه چیز در ذهنت مانده.