چالشهای هوش مصنوعی
تصور کنید دنیایی را که بیماریها قبل از ظهور علائم تشخیص داده میشوند، خودروها بدون راننده به راحتی در خیابانها حرکت میکنند و دستیاران دیجیتال نیازهای شما را حتی قبل از اینکه آنها را بیان کنید پیشبینی میکنند. این پتانسیل تغییردهنده هوش مصنوعی (AI) است. با این حال، مانند روی دیگر سکه، هوش مصنوعی چالشها و محدودیتهایی دارد که اغلب توسط پیشرفتهای چشمگیر آن پوشانده میشود.
وابستگی به داده در هوش مصنوعی:
اشتهای هوش مصنوعی برای داده ها:
در قلب هوش مصنوعی، به ویژه یادگیری ماشینی، اشتهای سیری ناپذیری برای داده وجود دارد. هر چه داده ها بهتر باشند، عملکرد هوش مصنوعی بهتر میگردد.
وظیفه طاقت فرسای جمع آوری داده:
نه تنها هوش مصنوعی به مجموعه های داده عظیمی نیاز دارد، بلکه کیفیت، تنوع و ربط این داده ها نیز بسیار مهم است. به دست آوردن داده های تمیز، بی طرفانه و مرتبط یک چالش عظیم است، به ویژه با مسائلی مانند انبوه داده ها، نگرانی های حفظ حریم خصوصی و سوگیری داده.
مخاطرات داده های گمراه کننده:
اگر هوش مصنوعی بر روی داده های skewed یا گمراه کننده آموزش داده شود، تنها بازتاب آن سوگیری ها خواهد بود. این می تواند منجر به تصمیم گیری های ناعادلانه از جمله درخواست های شغلی گرفته تا احکام حقوقی شود و پیش داوری های موجود در جامعه را تقویت کند.
مبارزه با وابستگی به داده ها برای هوش مصنوعی اخلاقی:
برای استفاده مسئولانه و اخلاقی از هوش مصنوعی، مقابله با وابستگی به داده ها ضروری است. در اینجا چند نکته کلیدی وجود دارد:
1. تنوع و نمایندگی: اطمینان حاصل کنید که داده ها از طیف گسترده ای از منابع جمع آوری می شوند و طیف وسیعی از افراد و شرایط را نشان می دهند. این به جلوگیری از نفوذ سوگیری ها در مدل های هوش مصنوعی کمک می کند.
2. کیفیت داده ها و تمیز کردن: فرآیندهای تمیز کردن داده های دقیق و اعتبار سنجی را به کار ببرید تا خطاها، ناسازگاری ها و سوگیری ها را از داده ها شناسایی و حذف کنید.
3. شفافیت و توضیح پذیری: مدل های هوش مصنوعی را ایجاد کنید که شفاف و قابل توضیح باشند، به این ترتیب می توان درک کرد که چگونه تصمیمات می گیرند و سوگیری های احتمالی را شناسایی می کنند.
4. نظارت انسانی و مداخله: مکانیسم های نظارت انسانی را برای نظارت بر مدل های هوش مصنوعی و مداخله در صورت لزوم برای جلوگیری از نتایج تبعیض آمیز یا ناعادلانه پیاده سازی کنید.
5. نظارت و ارزیابی مداوم: مدل های هوش مصنوعی را به طور منظم برای عملکرد و سوگیری بررسی کنید و در صورت نیاز به تنظیمات را انجام دهید.
با مقابله موثر با وابستگی به داده ها، می توانیم اطمینان حاصل کنیم که سیستم های هوش مصنوعی بر روی داده های با کیفیت بالا و بی طرفانه آموزش داده می شوند، منجر به برنامه های هوش مصنوعی منصفانه، عادلانه و مسئولیت پذیر می شود.
تعصب (بایاس) در هوش مصنوعی
با پیشرفت و همه گیر شدن هوش مصنوعی، موارد متعدد و مکرر از تعصب یا bias گزارش شده است. برای مثال تحقیقات مختلفی جانبداری و سو گیری الگوریتمهای تشخیص چهره را نشان داده است. بسیاری از این سیستمها بر روی مجموعههای داده تصویری همراه با بایاس آموزش دیدهاند، چرا که اغلب افراد این مجموعه داده ها چهرههای مردان کافکازی (افرادی با پوست روشن، موهای روشن یا قهوهای) است.
به عنوان مثال نشان داده شده که دیتاست گوگل بایاس ایالات متحده و غرب دارد و به همین دلیل اغلب به تقویت استریوتایپهای نژادی و جنسی متهم میشوند.
یک پیامد از بایاس پنهان در بیشتر مجموعههای داده متداول، نرخ قابل ملاحظه بالاتر شناسایی نادرست برای گروههای غیرکافکازی و همچنین زنان است.
یکی از عواملی که باعث شده تا اتحادیهها در برابر شرکت سواری Uber اقدامات قانونی را آغاز کنند، نقدهای مرتبط با تبعیض نژادی در سیستم تأیید چهره رانندگان این شرکت است. این مسأله منجر به رد ناعادلانهی درخواستها و رانندگان تیرهپوستتر شده و برخی تحقیقات نشان دادهاند که سیستم تشخیص چهره با رنگ پوست تیره، با موفقیت کمتری مواجه است.
علاوه بر این، نمایان شدن سوگیری هوش مصنوعی زمانی اتفاق میافتد که هوش مصنوعی در تصمیمگیریهای حیاتی مورد استفاده قرار میگیرد. در سال 2018، آمازون مجبور شد اقرار کند که ابزار استخدام هوش مصنوعی آن دارای نقص های قابل توجهی است. این هوش مصنوعی به منظور انتخاب متقاضیان شغل با بررسی الگوهای موجود در رزومههایی که در دهه گذشته به شرکت ارسال شده بودند، توسعه یافته بود.
بیشتر درخواستهای تاریخی از سوی مردان ارائه شده بود، که باعث شد هوش مصنوعی به طور فعّال یاد بگیرد که درخواستهای مردان به نسبت به درخواستهای زنان برتری داشته باشند.
احتمالاً ناممکن است که سوگیری را به طور کامل از هوش مصنوعی حذف کرد. دادههای تاریخی همواره دارای پیشداوریهای درونی هستند و جامعه به طور کامل از تعصب خالی نخواهد بود. در نهایت، تلاش برای جبران بیش از حد و حذف نقاط داده ممکن است به تبعیضهای جدید و پیشبینی نشده منجر شود. بنابراین، بهترین راه برای مدیریت سوگیری این است که مدلهای هوش مصنوعی را به مراتب در معرض بازبینی مداوم قرار دهیم.
کمبود داده
با توجه به اینکه شرکتهای بزرگی مانند گوگل، فیسبوک و اپل به دلیل استفاده غیراخلاقی از دادههای کاربری خود مورد اتهام قرار گرفتهاند، کشورهای مختلف مانند هند قوانین سختگیرانهای را برای محدود کردن جریان دادهها اعمال میکنند. بنابراین، این شرکتها اکنون با مشکل استفاده از دادههای محلی برای توسعه برنامههای کاربردی برای جهان روبرو هستند و این امر منجر به ایجاد سوگیری خواهد شد.
دادهها یک جنبه بسیار مهم در هوش مصنوعی هستند و دادههای برچسبگذاری شده برای آموزش ماشینها به یادگیری و ایجاد پیشبینی استفاده میشوند. برخی از شرکتها در حال تلاش برای نوآوری در روشهای جدید هستند و بر ایجاد مدلهای هوش مصنوعی متمرکز هستند که میتوانند علیرغم کمبود داده نتایج دقیقی ارائه دهند. با اطلاعات گمراه کننده کل سیستم میتواند دچار مشکل شود.
برای حل این چالش، محققان و شرکتها در حال بررسی روشهای نوآورانه جمعآوری و استفاده از دادهها هستند. یکی از روشهای امیدوارکننده تولید دادههای مصنوعی است که به ایجاد دادههای مصنوعی که توزیع دادههای واقعی را شبیهسازی میکند، اشاره دارد. این کار را میتوان با استفاده از تکنیکهایی مانند مدلهای مولد عمیق یا الگوریتمهای آماری انجام داد. استراتژی دیگر استفاده از یادگیری فدرال است که در آن دادهها در دستگاههای کاربران باقی میمانند و فقط برای آموزش مدل جمعآوری میشوند، بدون اینکه بهطور مستقیم به اشتراک گذاشته شوند. این روش حریم خصوصی دادهها را حفظ میکند و در عین حال امکان یادگیری جمعی را فراهم میکند.
علاوه بر افزایش دادهها و یادگیری فدرال، محققان همچنین در حال کار بر روی توسعه مدلهای هوش مصنوعی هستند که در برابر کمبود دادهها مقاومتر هستند. این مدلها میتوانند از مجموعههای دادههای کوچکتر یاد بگیرند و هنوز هم به خوبی به دادههای جدید تعمیم مییابند. با ترکیب این تکنیکها، امیدواریم بتوانیم چالش کمبود داده را برطرف کنیم و امکان توسعه برنامههای هوش مصنوعی که عادلانه، دقیق و برای همه مفید هستند را فراهم کنیم.
قابلیت توضیح و شفافیت در هوش مصنوعی:
معضل جعبه سیاه: بسیاری از سیستم های هوش مصنوعی، به ویژه مدل های یادگیری عمیق، تصمیمات خود را به روشی غیرقابل تفسیر انجام می دهند. این ابهام باعث ظهور اصطلاح “هوش مصنوعی جعبه سیاه” شده است.
شفافیت حاکم است: در بخش هایی مانند مالی، بهداشت یا حقوقی، جایی که تصمیمات هوش مصنوعی می تواند تأثیر قابل توجهی بر زندگی انسان داشته باشد، درک منطق پشتیبان آن تصمیمات برای پاسخگویی و اعتماد به نفس بسیار مهم است.
به سوی آینده شفاف: هوش مصنوعی قابل توضیح (“Explainable AI”) تلاش می کند تا تصمیم گیری هوش مصنوعی را شفاف و قابل درک کند و شکاف اعتماد بین انسان و ماشین را کاهش دهد.
توان پردازشی
دیپ لرنینگ و یادگیری عمیق نیاز به قدرت محاسباتی و توان پردازشی خیلی زیادی دارند. این نکته باعث میشود که بسیاری از توسعهدهندگان از انجام پروژههای هوش مصنوعی فاصله بگیرند. برای اجرای بهینه هوش مصنوعی، تعداد زیادی هسته پردازشی پردازنده گرافیکی لازم است.
در بسیاری از حوزهها، مانند ردیابی سیارکها، استقرار مراقبتهای بهداشتی، و ردیابی اجرام کیهانی، ایدهها و دانشی برای پیادهسازی چارچوبهای یادگیری عمیق وجود دارد. اما اجرای این چارچوبها، نیاز به قدرت محاسباتی یک ابررایانه دارد. ابررایانهها، تجهیزات گرانقیمتی هستند که برای همه قابل دسترس نیستند.
با وجود دسترسی به ابررایانهها و سیستمهای پردازش موازی، توسعهدهندگان سیستمهای هوش مصنوعی میتوانند به طور موثرتری کار کنند. اما هزینهی این تجهیزات، هنوز هم برای بسیاری از توسعهدهندگان، یک مانع بزرگ است.
نتیجهگیری
هوش مصنوعی پتانسیل ایجاد تحول مثبت در بسیاری از زمینههای زندگی ما را دارد. با این حال، برای اطمینان از اینکه هوش مصنوعی به طور مسئولانه و اخلاقی استفاده شود، مهم است که چالشهای آن را درک کرده و راهحلهایی برای آنها پیدا کنیم.
مطالعه مرتبط
در زمینه محصولات هوش مصنوعی، برخی از چالشها و مشکلات فروش شامل چالش در متقاعد کردن ذینفعان، کاربران یا مشتریان برای پذیرش و اعتماد به راهحل هوش مصنوعی وجود دارد. در صورت علاقه به مطالعه پیرامون این چالشها پست زیر را مطاعه فرمایید:
منابع:
https://www.linkedin.com/pulse/challenges-limitations-ai-varghese-chacko/
https://www.upgrad.com/blog/top-challenges-in-artificial-intelligence/
https://www.chathamhouse.org/2022/03/challenges-ai
دیدگاهتان را بنویسید