مهندس نرم افزار | متخصص علوم داده
کسب و کارها چطور با استفاده از هوش مصنوعی اثرات اجتماعی ایجاد میکنند؟ (بررسی گزارش دیجیکالا)
امروزه در محافل مختلف به خصوص در کسبوکارها حرف از هوشمصنوعی زده میشود. هوشمصنوعی همچون یک مفهوم سهل ممتنع تا به امروز ظهور و بروز داشته است. مدیران، همگی به دنبال استفاده از این تکنولوژی هستند اما هر چه عطش آنها در استفاده از این ابزار بیشتر میشود، ابهامات بیشتری در مورد آن پیدا میکنند. عدم توقع درست از این ابزار و همچنین نبود زیرساختهای دادهمحوری در سازمان میتواند موجب سرخوردگی در استفاده از این تکنولوژی شود چرا که هزینههای هنگفتی را بر دوش سازمان گذاشته و عملا نتایج مطلوبی نیز در پی نخواهد داشت.
انتشار گزارش سالیانه دیجیکالا بهانهای شد تا به بررسی استفاده از هوشمصنوعی در سازمانها بپردازیم. عملکرد دیجیکالا در سال ۹۹ طبق گزارش منتشرشده نشان از بهبود کیفیت و رشد سازمان دارد. رشدی که بخشی از آن مرهون استفاده از تکنولوژیهای نو و بهروز در دیجیکالا ست و نشان از این دارد که دیجیکالا توانسته است زیرساختهای دادهمحوری را در سازمان خود نهادینه کند و سپس با بهکارگیری هوشمصنوعی عملکرد خود را ارتقا دهد.
در فصل «بستر فناوری» در این گزارش، میتوان مواردی را که دیجیکالا از هوشمصنوعی و کلاندادهها استفاده کردهاست مشاهده کرد. مواردی همچون بهبود موتور جستوجو، سیستم پیشنهاددهنده، نظارت بر محتوای نظرات، پیشبینی فروش کالاهای منتخب، شناسایی تقلب در استفاده از کدهای تخفیف و همچنین بهبود بستهبندی از مواردی هستند که دیجیکالا نام آنها را ذکر کرده است. اما برای طراحی و توسعه یک سیستم موفق مبتنی بر هوشمصنوعی لازم است نکاتی در نظر گرفته شود. نکاتی که میتوانند در قالب انتظارات مدیران ردههای بالای سازمان از تیمهای فنی و توسعه محصول درنظر گرفته شوند. در واقع در عصر دادهمحوری لازم است تا مدیران بدانند که از جعبهسیاه هوشمصنوعی باید چه انتظاراتی داشته باشند. از طرفی توسعهدهندگان نیز باید بهطور مسئولانهای اقدام به طراحی و توسعه کنند. در شرکت گوگل حدودا یک سال است که برای طراحی و توسعه هوشمصنوعی اصول و قواعدی درنظر گرفته شده است که میتوانید از این بلاگ آنها را مشاهده کنید. این اصول لزوما صرفا فنی نیستند و بعضا از بیرون به موضوع هوشمصنوعی نگاه میکنند و همین امر باعث میشود که قابل فهم برای عموم باشند.
در اولین گام لازم است تا مسئله بهدقت و بهدرستی تعریف شود. اینکه بدانیم دقیقا دنبال چه چیزی میگردیم، اولین گام است. در واقع نباید توقع داشته باشیم که یادگیری ماشین و یا هوشمصنوعی اینکه چه مسئلهای را باید حل کنیم را به ما بگوید بلکه قرار است مسئلهای که ما تعریف میکنیم را حل کند[1]. دیجیکالا در این گام توانسته بخوبی مسئلههای مشخصی همچون بهبود موتور جستوجو یا سیستم پیشنهاددهنده و یا پیشبینی فروش کالاهای منتخب را تعریف کند. در گام بعدی لازم است تا با استفاده از تعریف مسئله، معیارهای ارزیابی مشخصی در سطح کسبوکار تعریف شود[2]. مسئلههایی که در حوزه یادگیری ماشین تعریف میشوند، توابع هدفی را بهینه میکنند که عموما از فهم کسبوکار دور هستند و جنبه ریاضیاتی دارند. این مرحله نقطهای ست که کارشناسان حوزه کسبوکار باید با توسعهدهندگان همراهی کنند و معیارهای مشخص و خوشتعریفی را در سطح کسبوکار تعریف کنند که عموما متاثر از شاخصهای کلیدی عملکرد در سازمان هستند. مثلا در قسمت شناسایی تقلب در جشنوارهها، دیجیکالا توانسته است به صرفهجویی روزانه صد میلیون تومانی برسد یا در بهبود موتور جستوجو نرخ تبدیل ۸ برابری معرفی شده است. این شاخصها یک معیار قابل فهم برای افراد کسبوکار است و حس اثربخشبودن توسعه یک موتور مبتنی بر هوشمصنوعی را متبادر میکند. در نبود این معیارها حتی در صورت موثر بودن بهکارگیری هوشمصنوعی باز هم حس موثر بودن القا نمیشود. مثلا در همین گزارش و برای پیشبینی فروش کالاهای منتخب، معیار عملکردی آورده نشده است که به نظر بهتر است برای این قسمت نیز معیار عملکرد ارایه گردد. همچنین بررسی ابعاد اجتماعی توسعه هوشمصنوعی نیز از مسئولیتهای مهمی ست که مدیران سازمان باید به آن توجه کنند[3]. دیجیکالا در قسمت بهینهسازی بستهبندی نیز به خوبی به این موضوع توجه کرده است و نشان داده که با توسعه یک روش بهبود بستهبندی تا چه حد میتواند به صرفهجویی در منابع طبیعی کمک کند.
در واقع هر چقدر سازمان به سمت حرفهای تر شدن پیش میرود افق نگاه سازمان در مسائل مهندسی، مسائل اجتماعی را نیز در بر میگیرد. به همین جهت شاید در سازمانهای کوچک، بسیاری از مسائل اجتماعی اصلا محلی از اعراب نداشته باشد اما برای دیجیکالا میتواند مهم و پرفایده باشد. به عنوان یک پیشنهاد در راستای رسالت اجتماعی، به دیجیکالا توصیه میکنیم در گزارشهای سالهای آتی حتما ذکر کنند که چه مقدار از منابع سختافزاری مانند GPU ها استفاده کردهاند چرا که در برخی پژوهشها نشان داده شده است مثلا مدل خاصی از آموزش یک شبکه هوش مصنوعی به نام ترنسفورمر ( که ابتدا از حوزه پردازش زبان طبیعی مطرح شده است) میتواند تا ۵ برابر دوره حیات یک اتومبیل کربندیاکسید تولید کند[4]!!
شکل بالا نشان میدهد که مثلا برای آموزش یک شبکه ترنسفورمر اگر از مکانیزم neural architecture search استفاده کنیم تا ۵ برابر بیشتر گاز دیاکسیدکربن منتشر میشود. بنابراین چنانچه یک معماری پیشفرض برای شبکه درنظر بگیریم و از این مکانیزم استفاده نکنیم میتوان به میزان بسیار زیادی از انتشار این گاز جلوگیری کرد و دین خود را بیشتر به طبیعت ادا کنیم! البته که توجه به این موارد در نگاه اول سختگیرانه به نظر میرسد اما هرچه سازمان بالغتر شود میتواند رسالتهای اجتماعی بیشتری را برای خود تعریف کند.
سوگیری و انصاف
مبحث سوگیری و انصاف و یا bias & fairness در سالهای اخیر بسیار مطرح شده است. عبارت bias در واقع اشاره به سوگیریهای اجتماعی در جامعه موجود دارد که ممکن است در دیتاهایی که برای آموزش مدلهای مبتنی بر هوش مصنوعی استفاده میشود نیز دیده شوند. مثلا در جامعه آمریکا این بایاس وجود دارد که سیاهپوستان، بیشتر جرم و جنایت انجام میدهند. وجود این سوگیری اجتماعی منفی میتواند در دادههایی که برای آموزش مدلهای هوشمصنوعی بهجهت اعتبارسنجی برای اعطای وامهای بانکی استفاده میشود، خود را نشان دهد و مدل آموزشدادهشده را به سمت عدم اعتبار برای سیاهپوستان سوق دهد. وجود این پدیده خطرناک با اولین اعتراضات به گوگلترنسلیت شروع شد. زمانی که این ابزار برای ترجمه جملاتی که شغلهایی با موقعیت اجتماعی پایینتر داشتند از ضمیر "She" استفاده میکرد. این نشان میداد دادههایی که برای مدلهای زبانی مورد استفاده در این ابزار استفاده شده بودند از سوگیری جنسیتی رنج میبردند. از همان زمان شرکت گوگل اصولی را برای طراحی این سیستمهای مبتنی بر هوشمصنوعی درنظر گرفت تا از عدم انصاف و همچنین سوگیریهای نامتوازن جلوگیری کند[2]. همچنین در recommender system ها نیز میتواند نوعی عدم رعایت انصاف وجود داشته باشد. این عدم انصاف عموما در قبال مشتریانی که کمتر خرید انجام دادهاند در قبال مشتریان پرخرید دیده میشود. به نحوی که مشتریان پرخرید عموما پیشنهادهای دقیقتری دریافت میکنند در حالیکه مشتریانی که فعالیت کمتری دارند پیشنهادهای بسیار ضعیفی به آنها میرسد[6]. این عدم توازن تحت عنوان عدم انصاف شناخته میشود. لازم است تا مدیرانی که از تیم فنی انتظار طراحی مدلهای هوشمند دارند به مبحث سوگیری و انصاف توجه ویژه کنند و معیارهایی برای بهبود این موارد توسعه دهند. در دیجیکالا یکی از موارد استفاده از هوشمصنوعی استفاده از سیستم پیشنهاددهنده است که تنها معیاری که از آن در گزارش یاد شده رشد استفاده ۳۰ درصدی از آن است که البته بسیار خوشحالکننده است. به نظر لازم است تا دیجیکالا در گزارشهای آتی حتما معیارهای دقیقی را برای سوگیری و انصاف در توسعه و طراحی این سیستمها تعریف کرده و آنها را در گزارش اعلام نماید.
سخن آخر
در پایان باید به تمام تیمهای دیجیکالا به خصوص تیم فنی آن خسته نباشید بگوییم. همچنین خوشحال باشیم که چنین سازمان بالغی در فضای IT کشور حضور دارد. امیدواریم انتشار این گزارشهای عمومی ادامهدار باشد و همچنین در قسمتهای مربوط به AI مواردی که در بالا گفته شد نیز در آن وارد شود تا به توسعه فضای هوشمصنوعی در کشور کمک کند.
پ.ن: گزارش عملکرد سالیانه دیجیکالا در سال ۹۹ را میتوانید از اینجا دریافت کنید.
[1]: Human-Centered Machine Learning
[3]: Building responsible AI for everyone
[4]: Energy and Policy Considerations for Deep Learning in NLP
[5]: Training a single AI model can emit as much carbon as five cars in their lifetimes
[6]: User-oriented Fairness in Recommendation
مطلبی دیگر از این انتشارات
در باب «یک محصول جدید چهطور در گوگل ساخته میشه؟»
مطلبی دیگر از این انتشارات
انتشار/بیروندهی (release) در یک سرویس جهانی
مطلبی دیگر از این انتشارات
ایدهای جسورانه برای بالا نگهداشتن سرویس - قسمت دوم