عمــومي (GRNNs)، مقالــه وانــگ و يــان [١١] در ترکيــب نگاشــت هــاي خودســازمان ده بــا شــبکه هــاي عصــبي المــان (ELMAN)، مقاله کارپين ترييو [١٢] در ترکيـب نگاشـت هـايخودسازمان ده با شبکه هاي عصبي پرسپترو ن چندلايه (MLP) و غيره اشاره نمود [١٥ -١٣]. ليست مختصري از اين اقـدامات درجدول (١) خلاصه سازي شده اند.
در اين مقاله، به منظور غلبه بر محـدوديت تعـداد متغيرهـايورودي شبکه هاي عصبي و همچنين بهبود دقت پي شبيني هـا درمحيط هاي مالي، از نگاشت هاي خودسازمان ده که از دقيق تـرينروش هاي حال حاضر در شناخت و تحليل فضاهاي چندبعـديغيرخطي هستند، به منظور پيشنهاد يـک روش ترکيبـي اسـتفادهشده است. در روش پيشنهادي، ورودي هاي شـبکه در ابتـدا بـا

Iutput Layer Output Layer

o

o

شکل ١ – ساختار يک نگاش ت خودسازمانده (٥×٤)

استفاده از نگاشت هاي خود سازمان ده خوشه بنـدي مـي گردنـد .
ايده اين کار بر اين اصل استوار اسـت کـه در ادبيـات موضـوعپيش بيني با شبکه هاي عصبي مصنوعي، اکيدﹰا توصيه شده اسـتکه متغيرهاي ورودي به شبکه نبايد با يکديگر وابستگي خطي و غيرخطي داشته باشند. لذا با خوشه بنـدي متغيرهـاي ورودي بـااسـتفاده از نگاشـت هـاي خـود سـازمان ده مـي تـوان وابسـتگيفي مابين خوشه هاي ورودي را به حداقل رسانيد. در مرحله دوم از روش پيشنهادي نيز متغيرهاي موجود در هر خوشه با توجـهبه ميزان تأثيرگذاري شان با يکديگر ترکيب مي گردند تـا مقـدارمرتبط با هر خوشه تعيين گردد.
محتواي ساير قسمت هاي اين مقاله بدين صورت است: در بخش هاي دوم و سوم، به ترتيب مفاهيم پايه اي شبکه هاي عصبي چندلايه پيشخور و نگاشت هاي خود سازمان ده به اختصار شـرحداده شده اند. در بخش چهارم روش ترکيبي پيشنهادي به منظـورپــيش بينــي شــرح داده شــده اســت. در بخــش پــنجم قيمــت محصولات فولادي شرکت سهامي ذوب آهن اصفهان در بورس فلزات تهران با استفاده از روش پيشنهادي، پـيش بينـي و نتـايجحاصله با سـاير روش هـا مقايسـه شـده اسـت، درنهايـت نيـزنتيجه گيري آورده شده است.

٢ – نگا شتهاي خودسازمانده(SOM)
نگاشت هاي خودسازمان ده کلاس خاصي از شبکه هاي عصبي مصنوعي هستند که غالباﹰ به منظور تحليل فضـا هـاي پيچيـدهداده ها مورد استفاده قرار مي گيرند. اساس عملکرد اين گونـهاز شبکه ها تبديل يک فضاي ورودي با بعد دلخـواه بـه يـکفضا با بعـد ک متـر و غالبـاﹰ يـک نگاشـت دوبعـدي گسسـتهمي باشد. به همين دليـل اسـت کـه ايـن گونـه از شـبکه هـا رابه عنوان يک ابزار کاهش دهنده بعد محسوب مي نمايند. هدف نهايي از استفاده از نگاشت هاي خودسـازمان ده نيـز حصـولهمين مدل ساده از داده هاي اوليه به منظور کاهش محاسـباتو پيچيدگي هاي موجـود در زمينـه تجزيـه و تحليـل داده هـااست. نگاشت هـاي خودسـازمان ده کـاربرد هـاي فراوانـي درزمينه هاي مختلف علوم داشته که مهـم تـرين آنهـا اسـتخراجداده ها و تحليل فضا هـاي پيچيـده مـي باشـد [٢٦]. از سـايرکاربرد هاي اين گونه از شبکه هـا مـي تـوان بـه خوشـه بنـدي [٢٧]،تشخيص الگو [٢٨]، آناليز تصـاوير و اصـوات [٢٩] و تشخيص خطا [٣٠] اشاره نمود.

٢ -١ – توپولوژي نگاشت هاي خودسازمانده
نگاشت هاي خودسازمان ده در حالت کلـي دارای يـک سـاختاردو لايـه بـا يـک لايـه ورودي و يـک لايـه خروجـي هسـتند.
نرون هاي لايه ورودي وظيفه انتقال داده ها به شـبکه را برعهـدهداشته و در حالت کلي تعداد آنهـا بـا بعـد بـردار هـا در فضـايورودي برابر اسـت . لايـه خروجـي نيـز شـامل مجموعـه اي از نرون ها است که معمولاﹰ در يک صـفحه مسـطح کنـار يکـديگرچيده شده اند. اين نرون هاي لايه خروجي بـا توجـه بـه روابـطهمسايگي مشخصي که فـي مـابين آنهـا تعريـف شـده و رفتـارمتقابل روي همديگر، خروجي شبکه را ايجـاد مـي كننـد [٣١].
تعداد نرون هاي موجود در لايه خروجي به مسئله مورد مطالعـهوابسته بوده و توسط کاربر مشـخص مـي گـردد . سـاختار يـکنگاشت خودسـازمانده (٥×٤) در شـکل (١) نمـايش داده شـدهاست.
نـرون هـاي ورودي بـه وسـيله وزن هـاي اتصـالي بـه تمـام نرون هاي لايه خروجي متصل مي باشند. هر يک از واحـد هـايخروجي که بـردار هـاي مرجـع نيـز ناميـده مـي شـوند، توسـطمختصــات آنهــا در صــفحه خروجــي وزن دهــي مــي گردنــد؛ سپس با ارائه الگو هاي آموزشي به شبکه، وزن نرون ها که مبـينمختصات آنها در صـفحه خروجـي مـي باشـ د، طبـق الگـوريتمآموزشي که در قسمت هاي بعدي توضيح داده خواهد شد، تغيير خواهد کرد. اساس تغيير در اوزان جستجوي نروني با بيشـترينشباهت به الگوي ورودي(نرون برنده) و حرکت نرون مذکور و جمعي از همسايگانش به سـوي ا لگـوي ورودي اسـت . نتيجـهنهايي تغيير اوزان فشرده سازي اطلاعات و تعيـين فضـاي مـوردنظر مي باشد.

٢ -٢ – الگوريتم يادگيري نگاشت هاي خودسازمانده
الگوريتم آموزش نگاشت هاي خودسازمان ده از نوع بدون نـاظراست. اساساﹰ الگوريتم يادگيري بدون ناظر را مي توان بـ ه وسـيلهمعـادلات مرتبـه اول مشـخص نمـود. ايـن معـادلات توصـيفمي كنند که چگونه وزن هاي شبکه نسبت به زمان يا تکرار حالت گسسته سازگار مي شوند. به منظور سازگاري اوزان اغلب از يک مقياس شباهت يا اشتراک الگو براي هدايت فرآيند يادگيري که معمــولاﹰ مــا را بــ ه ســوي برخــي از شــکل هــاي همبســتگي، خوشه سازي و يا رفتار هاي رقابتي شبکه سوق مي دهد، اسـتفادهمي گـردد . الگـوريتم يـادگيري نگاشـت هـاي خودسـازمان ده در حالت کلي مبتني بر انتخاب نرون برنده و حرکت نرون مـذکورو برخي از همسايگانش، به سوي داده ورودي مورد نظر اسـت .
الگوريتم يادگيري نگاشت هاي خودسازمان ده را را مـي تـوان درمراحل زير خلاصه نمود:
– مرحله آغازين، در اين مرحله وزن هر نرون بـ ه صـورتيک عدد تصادفي قرار داده مي شود، سپس يـک الگـوي ورودي

شکل ٢ – انتخاب نرون برنده از ميان الگ وهاي مرجع

(X = (x ,x ,…,x1 2d به شبکه اعمال مي گردد.
– تعيين نرون برنده، در اين مرحله براساس معيـار تشـابهشبکه، نرون برنده مشخص مي گردد. معيار هاي تشابه مختلفي را مـي تـوان در نگاشـت هــاي خودسـازمان ده بـه کارگرفـت، امــا معمول ترين معياري که در ايـن گونـه از شـبک ههـا بـه کارگرفتـهمي شود، فاصله اقليدسي اسـت . رابطـه معيـار تشـابه اقليدسـيمطابق رابطه زير مي باشد:
1
2746129470

1399061-150362

− W =∑d (Xi − wi )2  2
X
 i 1=
حال به صـورت همزمـان ورودي (X = (x ,x ,…,x1 2 d بـا تمـامعناصر موجود در شبکه مقايسه ميگردد. نرون برنده، نروني با فاصله کمينه در ميان تمامي الگ وهاي مرجع از داده ورودي است:

X −mc

= min{

X −mr

}
به قسمي که mc نرون برنده و mr بردار هاي مرجع مي باشند.
نمونه اي از انتخاب نـرون برنـده از ميـان الگـو هـاي مرجـع درشکل(٢) آورده شده است.
– تعيين نرون هاي همسايه، بعـد از مشـخص شـدن نـرونبرنده مجموعه اي از نرون هاي همسايه نرون برنده که ميبايست مقاديرشــان تغييــر نماينــد، مشــخص مــي شــوند. برخــي از همسايگي هاي مختلف در شکل (٣) آورده شـده اسـت. تغييـرمقادير مربوط به نرون هاي همسايه در حالت کلي به دو صورت انجام مي پذيرد[٣٢]. در حالت اول يک شعاع همسـايگي معـيندر اطراف سلول برنده انتخاب مـي گـردد . در ايـن روش تمـامنرون هايي از شبکه که در فاصله معين از نرون برنده مـي باشـندبا يک ضريب ثابـت بـه سـمت ورودي حرکـت مـي كننـد . در روش دوم تمامي نرون هاي موجود در شبکه با ضـريبي نـابرابربه سمت ورودي حرکت مي كنند. اين ضريب نابرابر به صـورتياست که در نرون برنده حداکثر مقدار را داشته و با دورشـدن ازنرون برنده مقدارش کاهش پيدا مي کند.
– اصلاح اوزان، در انتها اوزان مربـوط بـه نـرون برنـده وهمسايگانش بايد براساس ورودي شـبکه اصـلاح گردنـد. ايـنتغييرات براساس رابطه زير صورت مي گيرد:
mr (t +1) = mr (t)+α(t)⋅hcr (t)x t( )−mr (t) به قسمي که ( )x t بـردار ورودي در زمـانmr (t) ،t الگـويمرجــع rام در زمــان α(t) ،t نــرخ يــادگيري در زمــانt و (hcr (t تابع همسايگي است که براساس تابع کرنل مطابق زيـرتعريف مي گردد:

در این سایت فقط تکه هایی از این مطلب با شماره بندی انتهای صفحه درج می شود که ممکن است هنگام انتقال از فایل ورد به داخل سایت کلمات به هم بریزد یا شکل ها درج نشود

شما می توانید تکه های دیگری از این مطلب را با جستجو در همین سایت بخوانید

ولی برای دانلود فایل اصلی با فرمت ورد حاوی تمامی قسمت ها با منابع کامل

اینجا کلیک کنید

859536-88185

hcr ( )t = exp(− k2cσ−( )tkr2 2 )

بـه قسـمي کـهk ,kcr ∈ℜd بـه ترتيـب بيـانگر نـرون برنـده والگو هاي مرجع همسايه آن بوده و (σ(t شـعاع تـابع کرنـل درزمان t مي باشـد . نتيجـه مـوارد فـوق اصـلاح اوزان و حرکـتنـرو نهـاي مـذکور بـه سـوي نمونـه آموزشـي اسـت. (α(t پــارامتري اســت کــه بــه منظــور کنتــرل همگرايــي الگــوريتمبه کارگرفته مي شود و وابسته به تکرار است. به منظـور پايـداريشــبکه مــ يبايســت 10 < α(t) < بــوده و لزومــاﹰ برحســبt به صورت کاهشي يکنواخت باشـد . آمـوزش بـدون نظـارت درحالـت کلـي بـه صـورت اجتنـاب ناپـذيري از حالـت نظ ارتي پيچيده تر بوده و به همـين دليـل نيـز بـه زمـان بيشـتري جهـتيادگيري الگو هاي آموزشي نياز دارد [٣٣].

شکل ٣ – انواعي از همسايگ يها در نگاشت هاي خودسازمان ده

٢ -٣ – بکارگيري نگاشت هاي خودسازمان ده به منظور نمايش و تحليل فضا هاي چندبعدي
پس از آموزش يک شبکه خودسازمان ده، به تعداد نرون هاي انتخابي براي شبکه، بردارهاي وزني n بعدي به دست خواهد آمد که هر يک نمايانگر بخشي از فضاي مورد تحليل است. در صورت انتخاب تعداد مناسب نـرون، ابعـاد شـبکه و در نهايت آموزش مناسب شبکه، نمايش بردارهاي وزني متناظر با نرون هاي هر نقشه مي تواند به خوبي نمايانگر فضاي مورد تحليل باشد. بدين منظور متناظر با مقـدار هـر مشخصـه دربــردار وزنــي يــک بــردارRGB و در نتيجــه يــک رنــگدرنظرگرفته مي شود [٣٤]. به گونـه اي کـه کليـه مقـادير بـااستفاده از طيف رنگي، از آبي تيره براي کمتـرين مقـدار تـاقرمز تيره براي بيشترين مقدار، قابل نمايش باشد. توضـيحاﹰRGB از فرمت هاي استاندارد تعريف رنـگ هاسـت کـه هـررنگي را با توجه به ميزان شدت رنگ هاي اصلي و از ترکيب آنها قابل حصول مي سازد.
بدين ترتيب به ازاء هر مشخصه، رنگ هر نرون تعيين شـدهو نقشه متناظر با آن مشخصه به دست مي آيد. با به دسـت آمـدننقشه هاي مشخصات، بررسي ارتباط متقابل ميان مشخصـه هـا وتست همبستگي بين آنها امکان پذير مـي گـردد . بـه عنـوان مثـالهم رنگ بودن قسمت هاي متناظر دو نقشه، نشـان دهنـده وجـودرابطه و همبستگي مشخصه هاي متناظر با هـر مشخصـه اسـت . ميـزان رابطـه موجـود و شـدت همبسـتگي ميـان دو متغيـر در قسمت هاي مختلف فضا نيز از شدت تفاوت يا تشابه رنگ ميان نقشه هاي متناظر با هر يک از متغيرها قابل بررسي اسـت . البتـهممکن است شدت و يا حتي نوع رابطه موجود بين دو مشخصه
ج

شکل ٤ – نمونه اي از نقش ههاي SOM در تحليل الگوهاي پيچيده

در نقاط مختلف فضا متفاوت و متأثر از مقدار ساير مشخصه هـانيز باشد که همگي با استفاده از نقشه هاي SOM به خوبي قابـلنمايش و مشاهده هستند. در شـکل (٤) مـي توانيـد نمونـه اي از نقشه هاي SOM وکاربردهاي شبکه هاي خودسازمان ده در تحليل الگوهاي پيچيده و نمـايش همزمـان اثـرات متقابـل متغيرهـايمختلف بر يکديگر را مشاهده نماييد.
همان گونه که از شـکل (٤) مشـخص اسـت فضـاي مـوردتحليل داراي پنج بعد مي باشد. از مقايسه نقشه هـاي مـذکور بـايکديگر اطلاعات زيادي از جمله موارد زير قابل استنتاج است:
– متغيرهــاي دوم و پــنجم و همچنــين متغيرهــاي اول وچهارم در تمامي دامنه تغييرات خود داراي رابطـه و همبسـتگيمعکوس مي باشند. گرچـه شـدت همبسـتگي متغيرهـاي دوم وپنجم و در تمامي نقاط فضا تقريباﹰ ثابت است، اما ايـن نکتـه درمورد متغير هاي اول و چهارم صادق نيست.
– متغيرهاي سوم و پنجم نيـز داراي همبسـتگي معکـوسهستند اما شدت همبسـتگي آنهـا در تمـامي نقـاط فضـا ثابـتنمي باشد. همچنين شدت اين همبستگي از شدت همبستگي بين متغيرهاي دوم و پنجم کمتر است.
– متغيرهاي دوم و سوم داراي همبستگي مستقيم انـد ولـيشدت همبستگي آنها وابسته به مقادير ساير متغيرهاست.
– همبستگي متغيرهاي اول، چهارم و پنجم کاملاﹰ غيرخطي ج بوده و شدت آن در نقاط مختلف فضا متفاوت است.

شکل ٥ – نمونه اي از يک ماتريس دست هبندي

-٣ -١ – ماتريس دسته بندي
از جمله ديگر خروجي هاي شبکه هاي خودسـازمان ده مـاتريسدسته بندي و متناظر با آن نقشه دسته بندي است. درايه هـاي ايـنماتريس، فاصله جبري نرورن هاي همسايه از يکـديگر را نشـانمي دهد. در صورتي که مشخصـات دو قسـمت از فضـاي مـوردتحليل به يکديگر شبيه باشند، فاصـله جبـري بردارهـاي وزنـينرون هاي متناظر با آنها کم خواهد بود و به عبارت ديگر هر دو نرون متعلق به خوشه واحدي از فضاي مورد تحليل هسـتند . در طرف مقابل هر مقدار فاصله جبري ميـان نـرون هـاي همسـايهبيشتر باشد، نشان دهنده تفاوت بيشـتر ميـان فضـاي متنـاظر بـاآنهاست لذا مي توان آنها را در دو خوشه متفاوت قرار داد. شکل (٥) نمونه اي از يک ماتريس دسته بندي را با تعـدادي خوشـه وزيرخوشه از يک فضاي دو بعدي را نشان مي دهد.

– روش شبکه هاي عصبي مصنوعي(ANNs)
شبکه هاي عصبي مصنوعي از جمله رو شهايي هستند که قـادربـه تخمــين مـوارد غيرخطــي متعـدد در داده هــا بـوده و يــک چارچوب محاسبه اي انعطاف پذير براي دامنه وسيعي از مسـائلغيرخطي مي باشند. يکي از مزيت هاي بـارز ايـن گونـه مـدل هـانسبت به مدل هاي ديگر غيرخطي، ايـن اسـت کـه شـبكه هـايعصبي مصنوعي يک تقريب زننده جهاني هستند که مي توانند هر نوع تابعي را با دقت دلخواه تقريب بزنند. اين نـوع از شـبکه هـانياز به هيچ گونه پـيش فرضـي در مـورد شـکل مـدل در فرآينـدمدل سازي نداشته و به طوركلي يک مدل مبتني بر داده مي باشـند [٣٥]. اين گونه مدل ها از سه لايه پردازش ساده اطلاعات متصل به هم تشکيل شده اند. رابطـه بـين خروجـي (yt ) و ورودي هـا
:به صورت زير است (x ,x ,…,x12p )
QP
yt

b0wj g(b0jwi,j x )it (٥)
به طوري که w ,wij j پارامترهاي مدل بـوده کـه غالبـاﹰ وزن هـاياتصالي ناميده مي شوند، P تعـداد گـره هـاي ورودي وQ تعـدا د گره هاي مخفي هستند. تابع سيگموئيدي اغلـب بـه عنـوان تـابعفعال سازي لايه مخفي مورد استفاده قرار مي گيرد: (۶)

= ( )g x
از اينرو مدل شبكه هاي عصبي مصنوعي رابطـه (٢) در حقيقـتبه عنوان يک نگاشت غيرخطي از مشـاهدات گذشـته بـه مقـدارآينده خواهد بود، يعني: (۷) yt = f x ,x ,…,x ,w( 1 2 p )+εt
به طوري که W بردار همه پارامترها و f تابعي اسـت کـه توسـطساختار شبکه عصبي و وزن هاي اتصالي تعيين مي گردد، از اينرو شبکه هاي عصبي معادل مدل خودرگرسيون غيرخطي هستند.
مدل ساده بيان شده توسط رابطـه (٥) داراي قـدرت تقريـببسيار زيادي مي باشد، چرا که قادر است هر تابع دلخـواه را بـهشرط آنکه تعداد گره هاي مخفي (Q) به اندازه کافي بزرگ باشـدرا تقريب بزند. در عمل ساختار شبکه عصبي سـاده کـه تعـدادنرون کمتري در لايه مخفي دارد غالباﹰ در پيش بيني هاي خارج از نمونه بهتر عمل مي کند و اين بـه دليـل دوري جسـتن از مسـئله برازش بيش از حـد اسـت کـه عمـدتﹰا در فرآينـد مـدل سـازيشبکه های عصبي رخ مي دهد.
يک مدل بيش از حد برازش شده، براي داده هايي که در ساخت مدل (داده هاي آموزشي) استفاده شده اند بـرازش خـوبي نشـانمي دهد اما توانايي تعمـيم آن، بـراي داده هـاي خـارج از نمونـهبسيار ضعيف است [٣٤]. انتخاب تعداد نرون هاي لايـه مخفـيوابسته به داده ها بوده و هيچ قانون سيستماتيکي به منظور تعيـيناين پارامتر در طراحي شبکه هاي عصبي وجود ندارد. علاوه بـراين، مرحله مهم ديگر مدل سازي شـبکه هـاي عصـبي، انتخـابتعداد وقفه هاي موجـود در مشـاهدات بـه عنـو ان بـردار وروديشبکه است كه شايد مهم تـرين پـارامتر در طراحـي مـدل هـايشبكه هاي عصبي مصنوعي باشـد، زيـرا ايـن پـارامتر در تعيـينساختار خود همبسته غيرخطي سر يهاي زمـاني نقـش اساسـيدارد. هيچ تئوري خاصي جهت انتخاب P وجود ندارد، از اينرو تجربه و آزمايشات، مشخص کننده مقدار مناسب P وQ خواهند بود. هنگامیکه يک ساختار شبکه اي P وQ مشخص شد شـبکهآماده آموزش فرآيند تخمين پارامترها است. همانند مـدل سـازيخودرگرسيون ميانگين متحـرک انباشـته، پارامترهـا بـه گونـه ای تخمين زده مي شوند که معيار دقت شبکه مانند ميانگين مربعـاتخطا حداقل گردد. اين فرآيند توسط الگوريتم هاي بهينـه سـازيغيرخطي همچون پس انتشار خطا انجام مي شود.

٤ – روش ترکيبي پيشنهادي
شبكه هاي عصبي پرسپترون چندلايه برخلاف روش هاي سـنتيپيش بيني همچون رگرسيون، داراي محدوديت تعداد متغيرهـايورودي هستند. در روش هايي همچون رگرسيون عملکرد مـدلبا تعداد متغيرهاي ورودي توضيح دهنده رابطه مسـتقيم غيراکيـددارد، به عبارت ديگر با افزايش تعداد متغيرهاي توضـيح دهنـده،عملکرد مدل کاهش پيدا نخواهد کرد. اما در شبکه هاي عصـبيچندلايه پيشخور همچون پرسپترون هـاي چندلايـه ايـن مسـئلهبرقرار نمي باشد. لذا مسئله تعيـين تعـداد متغيرهـاي ورودي بـهشبکه به مسئله اي مهم و تأثيرگذار در طراحي شبکه هاي عصبي تبديل شده است. هر چند قانون تعريـف شـده اي بـراي تعـدادورودي هاي شبكه، در مسائل مختلف تعيين نشده است، امـ ا در حالت کلي تعداد ورودي هاي شبکه به ساختار شبكه، الگـوريتمآموزش، پيچيدگي مسـئله مـورد نظـر و اخـتلالات موجـود درداده ها وابسته مي باشد [٧].
در ادبيات موضوع، راه حل معمول براي مسـئله فـوق الـذکر،انتخاب تأثيرگذارترين متغيرهاي ورودي بر مقدار تابع هـدف وحذف ساير متغيرها است [٤]. حال درنظر نگرفتن اين متغيرهـادر ساختار نهايي شـبکه و عـدم توانـايي تحليـل نـوع و ميـزانتأثيرگذاري آنها بر متغير وابسته، مشکلي است که از محبوبيـتشبکه هاي پرسپترون چندلايه در پيش بيني کاسته است. در روش ترکيبي پيشنهادي به جاي حذف متغيرهايي با تأثيرگذاري کمتـر، اين گونه از متغيرها با ساير متغيرهاي تأثيرگذار هـم دسـته خـودترکيب مي گردند. با ترکيب ورودي ها با يکديگر، ديگر نـه تنهـامشکل تعداد ورودي ها را نخواهيم داشت، بلکه توانايي تحليـلنوع و ميزان تأثيرگذاري هـر يـک از متغيرهـا را نيـز بـه دسـتخواهيم آورد.
روش ترکيبي پيشنهادي در حالت کلي شامل چهـار مرحلـهاساسي زير مي باشد:
– تشخيص متغيرهاي تأثيرگذار
– خوشه بندي متغيرهاي تأثيرگذار


دیدگاهتان را بنویسید