آیا مدیریت حریم خصوصی هوش مصنوعی شما آماده است؟


محرمانه بودن همیشه به معنای به حداقل رساندن جمع آوری داده ها به آنچه “برای هدف مناسب” است و سپس محدود کردن دسترسی و نگهداری آن داده ها فقط به آنچه مورد نیاز است.

هوش مصنوعی (AI) ، نویدبخش فرصت های مهیج برای خدمات و محصولات جدید ، همیشه مشتاق داده های هر منبع برای استخراج بینش است.

این دو جهان به سرعت با هم برخورد می کنند. همانطور که انجام می دهند ، آنها توانایی پاسخگویی به قول و خطرات داده ها و محرمانه بودن هوش مصنوعی را دارند.

آگاهی از این وعده به حکمرانی برمی گردد. نظارت موثر به ساختارهای پیچیده ای نیاز دارد که اکثر سازمان ها ندارند – نه تنها برای توسعه دهندگان ، مانند تیم های علوم داده ، بلکه همچنین بین تیم هایی که می توانند راه حل های هوش مصنوعی مانند عملیات و منابع انسانی و تیم های اصلی مانند حریم خصوصی را تهیه کنند ، که به طور سنتی انجام می شود عملکرد مدیریتی

مدیریت ناکافی ، سازمانها را در معرض خطرات غیرضروری قرار می دهد ، به ویژه هنگامی که تیم ها نمی دانند کدام داده توسط کدام قانون محدود شده است. این خطر اخیراً هنگامی نشان داده شد كه چندین سازمان به دلیل نقض قانون حریم خصوصی مصرف كننده كالیفرنیا (CCPA) پس از به اشتراک گذاشتن داده ها با یک ابزار نمایه سازی کلاهبرداری شخص ثالث ، شکایت کردند. در حالی که CCPA از استفاده از داده ها برای کشف تقلب و اهداف امنیتی محافظت می کند ، اما از انتقال داوطلبانه داده ها به شخص ثالث محافظت نمی کند.

در این حالت ، داده های مشترک بدیهی است شخصی هستند ، زیرا مختص مشتری بوده و برای ایجاد حسابهای کلاهبرداری مشتری مورد استفاده قرار گرفته اند. اما آیا همیشه مشخص است که داده های شخصی چیست؟

یک ماشین حساب BMI آنلاین را در نظر بگیرید که در آن وزن و قد خود را وارد می کنید. آیا داده های وزن و قد شما محافظت می شود؟ اگر بعد از جستجوی این ماشین حساب BMI ، تبلیغات مربوط به مکمل های کاهش وزن ، احتمالاً توسط موتورهای ارجاع مبتنی بر هوش مصنوعی ، مورد هجوم قرار بگیرید ، چه می کنید؟ آیا داده های شما با این شخص ثالث به اشتراک گذاشته شده است؟ تبلیغ کننده از کجا فهمید که می خواهید لاغر شوید؟

مقررات اخیر مانند CCPA ، قانون حریم خصوصی کالیفرنیا (CPRA) و مقررات عمومی حفاظت از داده ها (GDPR) ، محافظت از داده ها ، محرمانه بودن داده ها و شفافیت را از اولویت های اصلی سازمان ها قرار داده است. وقتی از آنها س askedال شد که هوش مصنوعی چه اقداماتی را با مسئولیت پذیری انجام خواهد داد ، 38٪ از پاسخ دهندگان به نظرسنجی PwC 2021 AI پیش بینی می کنند که رعایت مقررات ، از جمله رازداری ، از اولویت های اصلی AI است. در حالی که قوانین فعلی حفظ حریم خصوصی تقریباً به طور یکسان بر جمع آوری و استفاده از داده های شخصی متمرکز است ، مقررات پیشنهادی مانند قانون گزارش الگوریتمی و قانون پاسخگویی راه حل خودکار در کالیفرنیا بر تأثیر گسترده تر استفاده از فناوری و داده ها تمرکز دارند.

تأكيد بيشتر بر روي مقررات با تمركز بيشتري كه سازمانها بر داده ها ، تحليل و مديريت هوش مصنوعي دارند ، تكميل مي شود. در پاسخ ، شیوه های حفظ حریم خصوصی در سازمان های پیشرو در حال بررسی نقش های خود هستند. این ستون به طور فزاینده ای تیم های حفظ حریم خصوصی را به عنوان هسته اصلی حوزه نوظهور مدیریت هوش مصنوعی قرار می دهد.

برنامه های کاربردی هوش مصنوعی برای تصمیم گیری قابل اعتماد به داده های قابل توجهی نیاز دارند و اغلب با توجه به تأثیر هوش مصنوعی بر ذینفعان به متعادل سازی منافع و خطرات نیاز دارند. با درج اخلاقیات در حریم خصوصی و شیوه های حفاظت از داده ها ، برخی از سازمان ها مسئولیت کنترل هوش مصنوعی را بر عهده تیم های حفظ حریم خصوصی می گذارند. این تغییر به گروه های محرمانه نیاز دارد که درک اساسی از نحوه تولید و آزمایش مدل ها داشته باشند تا بتوانند شیوه های توسعه مانند کاهش تعصب را ارزیابی کنند.

این یک تغییر ضروری است. با این حال ، حریم خصوصی تنها گروهی نیست که به دنبال مسئولیت مدیریت هوش مصنوعی است و ملزم به ایفای نقش فعال تر است. تیم های علوم داده ، واحدهای تجاری و گروه های عملکردی به سمت مدل های عملیاتی قوی تر در اطراف هوش مصنوعی در حال حرکت هستند.

داده های شخصی چیست؟

از آنجا که تعهد به عملکردهای محرمانه بودن در گذشته بر اساس الزامات نظارتی بوده است ، در درجه اول انطباق محور بوده است. این امر تعهد مهمی با تیم های حفظ حریم خصوصی تا پایان توسعه باقی می گذارد ، زمانی که آنها دیگر نمی توانند به طور قابل توجهی بر طراحی یک راه حل تأثیر بگذارند.

رویکردهایی مانند تلفیق اصول حفظ حریم خصوصی از طریق طراحی به دنبال حل مشکلات احتمالی حریم خصوصی و حفاظت از داده ها با درج تخصص حریم خصوصی در فرآیند توسعه نرم افزار است. حتی با این رویکرد ، اغلب بین آنچه تیم های توسعه به عنوان درگیری های محرمانه تلقی می کنند و آنچه در واقع درگیری است ، شکاف وجود دارد. اگر چنین داده هایی می توانند با شخصی در ارتباط باشند ، ممکن است تیم ها انتظار نداشته باشند که سنسور ، معامله یا داده های مکان مورد استفاده برای آموزش هوش مصنوعی استفاده شود.

به عنوان مثال ، با مثال یک ماشین حساب BMI ، تیم های توسعه ممکن است داده های بدست آمده را به عنوان داده های محافظت شده تلقی نکنند. داده ها به سادگی جمع آوری نمی شوند. همچنین می توان با استفاده از سنسورها یا سایر فن آوری های غنی شده با سایر منابع داده که دید دقیق تری از فرد را ایجاد می کنند و حتی به صورت مصنوعی تولید می شود تا جمعیت مصنوعی زیادی بر اساس نمونه برداری از چندین نقطه داده جداگانه ایجاد شود.

پیامدهای محرمانه بودن این رویکردها چیست؟ آیا اخلاقی است که داده ها را از این طریق تلفیق کنیم یا یک جمعیت مصنوعی بر اساس اطلاعات چندین فرد واقعی تولید کنیم؟ عواقب استفاده در نظر گرفته شده از داده ها یا بینش ها چیست؟

پیامدهای استفاده از هوش مصنوعی در کل چرخه حیات داده ها (شکل 1) و همچنین چرخه عمر نرم افزار وجود دارد. از آنجا که مقررات محرمانه به طور فزاینده ای بر الزامات به حداقل رساندن داده ها تمرکز می کنند ، و بحث در مورد داده های اخلاقی و هوش مصنوعی به طور فزاینده ای بر حفاظت از داده ها متمرکز است ، سازمان ها می توانند به طور فزاینده ای به این روش ها اعتماد کنند. اگر مجموعه داده های ترکیبی بدست آمده اطلاعات کافی برای برقراری ارتباط با شخص را فراهم کند ، حتی تکنیک های داده های مستعار یا ناشناس می توانند با افزایش داده ها تضعیف و شناسایی شوند.

چرخه عمر داده ، PwC

شکاف زبان

“محرمانه بودن” تنها اصطلاحی نیست که می تواند برای تیم های علم داده و محرمانه بودن معانی مختلفی داشته باشد. در چارچوب نظارتی رازداری ، “شفافیت” به معنای آگاهی دادن به افراد در مورد نحوه پردازش داده های آنها است. در علم داده ، شفافیت به توضیح تصمیم گیری در مورد مدل اشاره دارد. در زمینه محرمانه بودن ، “صحت” به میزان دقیق بودن داده های آزمودنی اطلاق می شود. در علم داده ، این کلمه به نمایش یک مدل بر روی جمعیت اشاره دارد: نسبت تصمیماتی که مدل به درستی اتخاذ کرده است.

ادغام م ofثر شیوه های طراحی محرمانه و آموزش گسترده در حال پر کردن این شکاف زبانی است ، اما به موضوعات گسترده تری از داده ها ، استفاده از داده ها و اخلاق هوش مصنوعی نمی پردازد. سایر اصول اخلاقی که سازمان ها اتخاذ می کنند ، مانند انصاف ، نیز در تفسیر با چالش های مشابهی روبرو خواهند شد.

توسعه هوش مصنوعی مانند توسعه نرم افزار نیست

توسعه نرم افزار به طور سنتی از روش های توسعه Agile یا Waterfall پیروی می کند. توسعه هوش مصنوعی نیاز به یک رویکرد آزمایشی دارد که در آن کل مدل به جای اینکه م componentsلفه های منفرد توسعه یافته و به یکدیگر اضافه شوند ، به صورت تکراری توسعه یافته است. این تمایز سازمان ها را با چالش های زیادی روبرو می کند ، که شامل اقدامات مدیریتی و حکومتی مورد نیاز برای حفظ نظارت موثر است.

حریم خصوصی قبلی را گسترش دهید

برای فعال کردن یک لایه مدیریت پایدار ، سازمان شما باید چندین مرحله را انجام دهد:

  1. فکر کنید که سازمان شما به چه نوع مدیریتی نیاز دارد برای انتقال حفاظت گذشته تنظیم شده توسط تنظیم کننده ها به اخلاق داده ها و استفاده از داده ها. داده ها ، استفاده از داده ها و اخلاق هوش مصنوعی بیش از رازداری است. برخی از سازمانها ، از جمله موارد دیگر ، اصول قابل توجیهی ، منافع اجتماعی و عدالت را اتخاذ می کنند. مشخص کنید که کدام اصول مناسب هستند و مهمتر از همه ، این اصول برای سازمان شما چه معنایی دارند. در مورد این اصول اجماع گسترده کسب کنید و آنها را به استانداردها و رویه های خاص برای هر عمل در سازمان خود تبدیل کنید تا رویکردهای مبتنی بر اعتماد را معرفی کنید.
  2. تفاوت بین AI و نرم افزار. با توجه به رویکرد آزمایشی آنها ، بهترین نقاط را برای ارتباط با تیم های توسعه هوش مصنوعی پیدا کنید. در هر زمان و فرایند توسعه باید نظارت ، نظافت ، دستکاری ، گسترش ، محافظت ، محافظت از داده ها انجام شود. این ممکن است امکان تجزیه و تحلیل عمیق تری از ملاحظات اخلاقی گسترده تر – محرمانه بودن و موارد دیگر را فراهم کند.
  3. آنچه را که دارید بسازید. هیچ کس مدیریت سنگین و انطباق را نمی خواهد. اما گسترش شیوه های مدیریت می تواند بی مورد منجر به ضعف در انطباق شود. بهره گیری از فرایندهای موجود می تواند به کاهش اصطکاک و مدیریت تغییرات لازم برای دستیابی به نظارت موثر کمک کند. بیشترین استفاده از داده های شخصی در حال حاضر به ارزیابی تأثیر محرمانه یا الزام GDPR برای ارزیابی تأثیر حفاظت از داده ها در سناریوهای با خطر بالاتر نیاز دارد. این الزامات را با س questionsالات اضافی مرتبط با هوش مصنوعی افزایش دهید و اجازه استفاده از آنها را در همه پیشرفت های هوش مصنوعی دهید. برای شناسایی و ارزیابی احتمال و اهمیت منافع ، خطرات و کنترل کاهش ، به س ofالات توجه ویژه داشته باشید. این اقدام را به عنوان ابزاری برای تصمیم گیری در معرض خطر و منفعت بشناسید و طیف وسیعی از ذینفعان داخلی را در مشارکت تصمیمات مشارکت دهید.
  4. تراز بندی زبان. و این کار را به تنهایی انجام ندهید: پیش بینی هرگونه تفاوت در نحوه استفاده از اصطلاحات بین تیم های حفظ حریم خصوصی و هوش مصنوعی. آموزش و همکاری برای درک درک مشترک از این اصطلاحات. مدیریت مشارکتی با یک رویکرد چند لایه می تواند به کاهش اصطکاک کمک کند و طیف وسیعی از دیدگاه های مورد نیاز برای سازمان شما را برای ایجاد مکانیسم های قوی و پایدار هوش مصنوعی فراهم می کند.
  5. برای مقابله با مسائل حریم خصوصی از تکنیک های هوش مصنوعی استفاده کنید. اگرچه هوش مصنوعی تعدادی از مشکلات زندگی خصوصی را ایجاد می کند ، اما چندین روش ابتکاری برای رسیدگی به مسائل مربوط به حریم خصوصی را نیز ارائه می دهد. تکنیک های جدید مانند رمزگذاری همومورفیک و محرمانه بودن دیفرانسیل امکان به اشتراک گذاری داده ها از طریق رمزگذاری یا القای سر و صدا را فراهم می کند. آموزش فدرال اجازه می دهد تا بینش بصورت محلی تولید شود و بدون افشای اطلاعات شخصی خلاصه شود. به عنوان یک فضای تحقیقاتی فعال ، هوش مصنوعی بدون شک برنامه های جدیدی را فراهم می کند که می توانند محافظت از حریم خصوصی را امکان پذیر کنند.

مشاغل باید با مدیریت سیستم های هوش مصنوعی و داده های مربوطه سر و کار داشته باشند. درک نحوه برقراری نظارت و همسویی با داده ها ، استفاده از داده ها و اصول اخلاقی هوش مصنوعی کلیدی در ایجاد یک مدل حاکمیت موثر است که در نهایت به تغییر ماهیت نقش های خاص نیاز دارد. حکمرانی موثر ایجاد اعتماد و ارائه مزایای قدرتمند هوش مصنوعی مسئول است.

درباره نحوه PwC بیشتر بدانید اجازه اعتماد به داده ها.


منبع: bighat-news.ir

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>