[ad_1]

بسیاری از سازمانها مجموعه ای از اصول سطح بالا را اتخاذ کرده اند تا اطمینان حاصل کنند که هوش مصنوعی آنها اخلاقی را اتخاذ می کند و هیچ آسیبی نمی رساند. اما برای دستیابی به اصول ، سازمان ها باید یک استراتژی پیاده سازی داشته باشند که شامل شاخص های خاصی باشد که توسط مهندسان ، متخصصان داده و کارکنان حقوقی قابل اندازه گیری و نظارت باشد. از آنجا که برای تعیین کمیت آسیب احتمالی ایجاد شده توسط هوش مصنوعی هیچ رویکرد واحدی وجود ندارد ، شاخص ها احتمالاً در سازمان ها ، کاربری ها و حوزه های نظارتی متفاوت هستند. اما این نباید سازمان ها را دلسرد کند. آنها می توانند ترکیبی از تحقیقات موجود ، سوابق قانونی و بهترین شیوه های فنی را به دست آورند.

رفاه محیط زیست عاملیت انسانی. شفافیت. اینها تنها چند اصل نامشخص است که بطور معمول در چارچوب اخلاقی برای هوش مصنوعی (AI) ذکر شده است ، صدها اصل آن قبلاً توسط سازمانهای مختلفی از Google گرفته تا دولت کانادا گرفته تا BMW منتشر شده است. از آنجا که سازمانها هوش مصنوعی را با سرعت فزاینده ای درک می کنند ، تصویب این اصول به عنوان یکی از بهترین راهها برای اطمینان از آسیب ناخواسته هوش مصنوعی به نظر می رسد.

مشکل؟ همانطور که محققان ثابت کرده اند ، بسیاری از چارچوب های اخلاقی هوش مصنوعی را نمی توان به طور واضح در عمل به کار برد. بدون افزایش خاصیت چارچوب های هوش مصنوعی موجود ، به راحتی تعداد کادر فنی وجود ندارد که بتوانند این رهنمودها را در سطح بالایی حفظ کنند. و این به نوبه خود به این معنی است که گرچه چارچوب اخلاقی هوش مصنوعی می تواند مبارزات بازاریابی خوبی ایجاد کند ، اما اغلب اوقات قادر به جلوگیری از آسیب دیدگی هوش مصنوعی است که برای جلوگیری از آن طراحی شده است.

از این لحاظ ، رهنمودهای اخلاقی می توانند خطرات جدی برای شرکتهایی که آنها را درک می کنند ، ایجاد کنند – این تصور غلط است که سازمانها AI خود را از خطر آزاد می کنند ، در حالی که خطرات آن گسترده است. اگر سازمان ها معتقدند كه عمل به وجود آوردن اصول اخلاقی برای هوش مصنوعی برای اطمینان از ایمن بودن هوش مصنوعی آنها كافی است ، باید در این مورد تجدید نظر كنند.

بنابراین شرکت ها برای محافظت از هوش مصنوعی در برابر آسیب ها چه کاری می توانند انجام دهند؟

پاسخ در کنار گذاشتن کامل تلاشهای اخلاقی هوش مصنوعی نیست. درعوض ، سازمان ها باید اطمینان حاصل کنند که این چارچوب ها همزمان با استراتژی هوش مصنوعی اخلاقی گسترده تر که مستقیماً بر پیاده سازی متمرکز است ، با شاخص های مشخص در مرکز توسعه یافته اند. به عبارت دیگر ، هر اصل هوش مصنوعی که سازمان اتخاذ می کند ، باید دارای شاخص های مشخصی باشد که توسط مهندسان ، متخصصان داده و کارکنان حقوقی قابل اندازه گیری و نظارت است.

مرکز پنجره

سازمان ها می توانند با پذیرش شروع کنند: جدی گرفتن هوش مصنوعی اخلاقی کار ساده ای نیست. استفاده از اصول هوش مصنوعی اخلاقی در محیط های استقرار واقعی به زمان و منابع قابل توجهی نیاز دارد ، بخشهای حقوقی ، علوم داده و بخش های خطر را پوشش می دهد و در برخی موارد نیاز به تجربه خارجی دارد. در حقیقت ، از آنجا که هیچ رویکرد واحدی برای تعیین کمیت آسیب احتمالی ایجاد شده توسط هوش مصنوعی وجود ندارد ، شاخص های اخلاقی هوش مصنوعی احتمالاً از یک سازمان به سازمان دیگر ، پرونده های مورد استفاده و حوزه قضایی متفاوت است. به سادگی هیچ یک از بهترین راه ها برای اندازه گیری اصولی مانند شفافیت هوش مصنوعی یا رفاه وجود ندارد. اما این نباید سازمان های جدی درمورد هوش مصنوعی اخلاقی را که می توانند از ترکیبی از تحقیقات موجود ، سوابق قانونی و بهترین روش های فنی بهره مند شوند ، دلسرد کند.

به عنوان مثال ، در حوزه عدالت ، در ایالات متحده ، سالها اعتبار قضایی ، مسکن و قانون اشتغال وجود دارد که می تواند به عنوان راهنمای اندازه گیری تبعیض الگوریتمی باشد ، موضوعی که قبلاً در مورد آن صحبت کردم. ممکن است سازمانها تمایل به اتخاذ یا اصلاح اقداماتی مانند ضریب واکنش نامطلوب ، اثر حاشیه ای یا اختلاف میانگین استاندارد داشته باشند ، که به طور گسترده ای برای تعیین کمیت تبعیض در یک فضای اعتباری منصفانه بسیار تنظیم شده استفاده می شود. استفاده از این شاخص های مشابه یا عدالت مشابه به دانشمندان داده این امکان را می دهد تا بفهمند چه زمانی و چگونه هوش مصنوعی آنها آسیب تبعیض آمیز ایجاد می کند و در صورت بروز آن سریع عمل می کنند.

در دنیای حریم خصوصی ، شاخص های بسیاری وجود دارد که سازمان ها می توانند برای تعیین کمیت و بالقوه نقض حریم خصوصی ، آنها را اتخاذ کنند. اگرچه نمونه های زیادی از تحقیقات در این زمینه وجود دارد (این مطالعه یکی از موارد مورد علاقه من است) ، مجموعه ای از تکنیک ها به نام “فن آوری های افزایش حریم خصوصی” ممکن است یکی از بهترین مکان ها برای شروع عملیاتی کردن اصول حریم خصوصی. روش هایی مانند محرمانه بودن افتراقی ، که بسته های منبع باز دارند و محققان داده می توانند بلافاصله از آن استفاده کنند ، مبتنی بر این تصور صریح است که محرمانه بودن را می توان در مجموعه داده های بزرگ کمی تعیین کرد و سالها توسط بسیاری از غول های فناوری استفاده می شده است. مطالعات مشابهی در جهان تفسیرپذیری و امنیت هوش مصنوعی وجود دارد که می تواند با بسیاری از اصول پذیرفته شده هوش مصنوعی مانند شفافیت ، ثبات و سایر موارد ترکیب شود.

همه اینها بدان معناست که از آنجا که سازمانها با کار دشواری در زمینه استفاده از معیارهای اخلاقی در هوش مصنوعی خود روبرو هستند ، لازم نیست از ابتدا شروع کنند. سازمان ها با داشتن شاخص های واضح به چارچوب های اخلاقی خود ، می توانند به راحتی درک کنند که چه زمانی شکست های اخلاقی در هوش مصنوعی آنها رخ می دهد.

آیا در تأکید بیشتر بر نقش معیارها در هوش مصنوعی اخلاقی کاستی هایی وجود دارد؟ قطعاً برخی از جنبه های تصمیم گیری الگوریتمی وجود دارد که کمی کردن آنها دشوار است ، اگر نه غیرممکن. این بدان معناست که بسیاری از پیاده سازی های هوش مصنوعی احتمالاً خطرات نامحسوس دارند که به بازبینی دقیق و دقیق نیاز دارد. برآورد بیش از حد از شاخص ها ممکن است در برخی شرایط منجر به خطر فراموش شده در این مناطق شود. علاوه بر این ، بیش از شاخص های واضح لازم است تا اطمینان حاصل شود که هوش مصنوعی آسیب جدی وارد نمی کند. سازوکارهای گزارش دهی ، مستند سازی ، موجودی مدل و غیره نیز باید م componentsلفه های اصلی هرگونه تلاش برای اجرای مسئولانه هوش مصنوعی را تشکیل دهند.

اما فقدان شاخص های واضح آسیب AI ، همانطور که اغلب اوقات در سازمان های هوش مصنوعی وجود دارد ، باعث ایجاد سردرگمی در کارکنان فنی و حقوقی درجه یک می شود که برای درک اینکه آیا هوش مصنوعی آنها بد است و برای دانستن آنها به شاخص های قابل اندازه گیری نیاز دارند. چگونه هنگام انجام واکنش نشان دهیم.

و گرچه وظیفه ترجمه اصول هوش مصنوعی به شاخص های مشخص از نظر عقلی چالش برانگیز است و از طرفی منابع زیادی را می طلبد ، اما سازمان های میزبان هوش مصنوعی نباید مرعوب شوند. در واقع ، آنها توانایی این را ندارند. جایگزینی برای چالشی که آنها با آن روبرو هستند – یعنی انتظار برای اندازه گیری خسارت از AI تا بعد از آنها اتفاق می افتند – برای مصرف کنندگان ، اعتبار و نتایج نهایی آنها بسیار دشوار و گران خواهد بود.

در پایان ، سوال این نیست اگر شما باید خسارت ناشی از هوش مصنوعی را بسنجید اما چه زمانی. اگر سازمان ها برای تعیین کمیت آسیب هایی که هوش مصنوعی آنها می تواند زیاد منتظر بمانند ، دادگاه ها شروع به انجام این کار برای آنها می کنند.

[ad_2]

منبع: bighat-news.ir