.
نظرسنجی جدید در ارتباط با اعلام نتایج لاتاری DV-2018
https://www.mohajersara.org/forum/thread-7409.html
.
نظرسنجی جدید در ارتباط با اعلام نتایج لاتاری DV-2018
https://www.mohajersara.org/forum/thread-7409.html
کانال تلگرام مهاجرسرا |
---|
گفتگوی آزاد در مورد اعلام نتایج (شمارش معکوس)
|
.
نظرسنجی جدید در ارتباط با اعلام نتایج لاتاری DV-2018 https://www.mohajersara.org/forum/thread-7409.html
2016-12-29 ساعت 09:02
ایندفعه بعد ۱۰ - ۱۵ باز زدن روی دکمه say hello to usa رو دیدم
124 روز و 10 ساعت مونده تا برنده بشم Just Seattle/Washington
Telegram : Sohi2018
...Happiness Is Coming
2016-12-29 ساعت 16:12
سلام منم ثبت نام کردم
میگم اگه برنده شیم نریم چی میشه ؟ آخه الان سفرنامه یکی از اعضا رو خوندم دیدم کلی باید دوندگی کرد :-l
2016-12-29 ساعت 22:04
دقیقا ۱۲۳ روز به has not been selected مونده خخخ
در نا امیدی بسی امید است نیست 18-9
تشکر کنندگان: LORDAmiroo ، jsmlz ، alirezanz
2016-12-30 ساعت 11:23
IAmTheWinner28
Just Seattle/Washington
Telegram : Sohi2018
...Happiness Is Coming
اگه من برنده شم حاظرم تا خود ا م ر ی ک ا سینه خیز برم این دوستمون که میگه اگه برنده شم چون دوندگی داره نمیرم نظرش برام خیییلی جالبه
2016-12-30 ساعت 14:08
لایک.منم اگه برنده شم هر کاری لازم باشه انجام میدم
اخه بخاطر یکم دوندگی کی میاد امریکا رفتنو ول کنه Just Seattle/Washington
Telegram : Sohi2018
...Happiness Is Coming
2016-12-30 ساعت 14:20
(2016-12-26 ساعت 09:29)darabi نوشته: من از خودم شروع میکنم با سلام ببخشید شما یا آشنایانتان در حوزه دیتا ساینس کار کردید؟ به طور خاص تر رگرسیون و دسته بندی نامتوازن و به ویژه با پایتون کار کردید؟ با تشکر فراوان
2016-12-30 ساعت 20:33
تشکر کنندگان: jsmlz
2016-12-30 ساعت 22:42
۱۲۲ روز و ۴۸ دقیقه مونده ( از اخرین باری که نگا کردم )
بعد ۳ بار زدن روی اون دکمه برنده شدم Just Seattle/Washington
Telegram : Sohi2018
...Happiness Is Coming
(2016-12-30 ساعت 14:20)shebrahimi نوشته:من با توجه به پایان نامه کارشناسی ارشدم روی agile development بیشتر کار کردم(2016-12-26 ساعت 09:29)darabi نوشته: من از خودم شروع میکنم پایتون هم یک پروژه کار کردم data mining هم پروژه کارشناسی ام بوده. دقیقا مشکلتون چی هست ؟ تشکر کنندگان: jsmlz
2016-12-30 ساعت 23:42
(2016-12-30 ساعت 23:05)darabi نوشته:(2016-12-30 ساعت 14:20)shebrahimi نوشته:(2016-12-26 ساعت 09:29)darabi نوشته: من از خودم شروع میکنم من رشته ام کامپیوتر نیست و میخوام از یادگیری ماشین برای دسته بندی شرکت ها به ورشکسته و غیرورشکسته استفاده کنم اما مشکل اینجاست که داده ام کوچک و به شدت هم unbalanced هست. حدود 1200 شرکت غیرورشکسته و 50 شرکت ورشکسته دارم. برای همین الگوریتم ها معمولا همه شرکت ها را به عنوان غیرورشکسته طبقه بندی می کنند و در عین حال خطا هم کم هست. از تکنیک های متعددی هم جهت حل مشکل نامتوازن بودن استفاده کردم مثل weighting - threshold tuning-oversampling (ADASYN) و blagging. اما نتیجه زیاد جالب نبود. در واقع طبق قانون تجارت اگر نسبت سود انباشته به سرمایه شرکت کمتر از 0.5- شود، شرکت ورشکسته محسوب می شود. برای اینکه مساله از نامتوازن بودن خارج شود، نسبت سود انباشته به سرمایه رو به عنوان تارگت در نظر گرفتم تا مساله تبدیل به رگرسیون شود و بعد خروجی پیش بینی شده رگرسیون رو دادم به یک کلاسیفایر. نتیجه تا حدی بهتر شده است اما باز هم خوب نیست. Accuracy: 0.944567627494 AUC: 0.846024464832 F1 Measure: 0.489795918367 Cohen Kappa: 0.465107452915 Precision: 0.352941176471 recall: 0.8 Confusion Matrix: [[414 22] [ 3 12]] f measure-kappa , precision خوب نیست چون 22 غیرورشکسته رو هم به عنوان ورشکسته شناسایی می کند. برای همین فکر کنم اگر از بین inputs یا ویژگی ها مهم ترین ویژگی ها رو انتخاب کنم شاید نتیجه بهبود پیدا کنه اما چون از pipeline استفاده می کنم نمی دونم که چطور feature importance . برای رگرسیون از xgboost استفاده می کنم. چون به هم ریخته میشه، بقیه اش رو کامل انگلیسی می نویسم. با تشکر فراوان تشکر کنندگان: jsmlz
2016-12-30 ساعت 23:48
(2016-12-30 ساعت 23:42)shebrahimi نوشته:(2016-12-30 ساعت 23:05)darabi نوشته:(2016-12-30 ساعت 14:20)shebrahimi نوشته: با سلام خوب اینجا جاش نیست ای دی تلگرامتون را برام پیام خصوصی کنید تا اونجا توضیح بذم تشکر کنندگان: jsmlz
2016-12-30 ساعت 23:51
(آخرین تغییر در ارسال: 2016-12-30 ساعت 23:58 توسط shebrahimi.)
(2016-12-30 ساعت 23:42)shebrahimi نوشته:(2016-12-30 ساعت 23:05)darabi نوشته:(2016-12-30 ساعت 14:20)shebrahimi نوشته: با سلام I would appreciate if you could let me know how to determine feature importance for XGBoostregressor while using pipeline. Besides, I have been suggested that If I build a good regression algorithm, then I predict values and predict bankruptcy when the value is below some threshold, which I tune on a hold out set to find a right balance between precision and recall. However, I couldn't understand what to do?
In fact, I tried "fit.feature_importances_" but this error is reported: AttributeError: 'Pipeline' object has no attribute 'feature_importances_' The same is true about plot_importance (fit): raise ValueError('tree must be Booster, XGBModel or dict instance') ValueError: tree must be Booster, XGBModel or dict instance The answer provided to the following post is similar to what I mean but unfortunately I couldn't get the idea. http://datascience.stackexchange.com/que...ikit-learn Really, I want to do something like this (Part: Feature Selection with XGBoost Feature Importance Scores) in order to see if my model improves or not. |