پیامدهای ناخواسته نوآوری های خود را مدیریت کنید


سرمایه گذاران خطرپذیر عاشق استارتاپ هایی هستند که می توانند به سرعت مقیاس بندی کنند و تنظیم کننده ها را از خود دور کنند. اما همانطور که جامعه به عواقب ناخواسته سرمایه گذاری های جدید پی می برد ، به ویژه آنهایی که فناوری هایی را به وجود می آورند که بخشی از زندگی روزمره ما می شوند ، افرادی که این تلاش ها را انجام می دهند باید در شناسایی عواقب ناخواسته بالقوه با دقت بیشتری عمل کنند و آنها را زود

اگرچه در بیست و یکم شاهد نوآوری های بی نظیری بوده ایمخیابان قرن ، ما همچنین شاهد پیامدهای ناخواسته مضر فن آوری های آزمایش نشده هستیم.

به عنوان مثال ، مارک زاکربرگ ، قصد سو Facebook استفاده از اشخاص ثالث و دخالت های سیاسی را برای خشمگین شدن در این سیستم عامل ، فیس بوک را آغاز نکرد. با این حال ، با استفاده از مانترا “حرکت سریع و شکستن چیزها” ، یک پلت فرم طراحی شده برای “دادن قدرت به مردم برای به اشتراک گذاشتن و باز کردن و اتصال جهان بیشتر” ، در نهایت عوارض جانبی مخربی مانند اخیر هجوم به پایتخت.

پیامدهای ناخواسته این فناوری 21 نیستخیابانوحی قرن. در دهه 1930 ، رابرت مرتون چارچوبی را برای درک انواع مختلف عواقب ناخواسته – مزایای ناخواسته ، نتایج انحرافی و معایب غیر منتظره ارائه داد. در حقیقت ، در طول تاریخ ، ما مشاهده کرده ایم که چگونه پیشرفت های چشمگیر ، مانند انقلاب صنعتی یا شربت ذرت با فروکتوز بالا ، می تواند اثرات مضر پایدار بر جامعه مانند آلودگی هوا و دیابت داشته باشد. با این حال ، پیامدهای فناوری امروز ناپسندتر است ، زیرا سرعت ترکیب آنها به طور تصاعدی افزایش یافته است. مقیاس گذاری سریع که توسط قوانین مور و متکالف انجام شده است ، هم به نفع صنعت فناوری است و هم با تشدید عواقب ناخواسته آن ، آن را تضعیف می کند.

آیا این پیامدهای پیش بینی نشده اجتناب ناپذیر است ، هزینه ای ضروری برای پیشرفت انسان در جبهه های دیگر؟ یا می توانیم آنها را پیش بینی و کاهش دهیم؟

کلمه “غیر ارادی” پیامدهایی را به همراه دارد که صرف نظر از تلاش ما به سادگی نمی توان تصور کرد. حد طبیعی ما در پیش بینی آینده نشان می دهد که ممکن است در عمل نتوانیم کارهای زیادی انجام دهیم. به نظر می رسد که باید به مصالحه منفعت طلبانه رضایت دهیم ، امیدواریم که تمام مزایای جدید فناوری ، چه مورد انتظار و چه غیرعمد ، از هزینه های آن بیشتر باشد. ممکن است ما نگران عواقب ناخواسته گوگل مانند سوگیری جستجو باشیم ، اما آیا واقعاً می خواهیم توانایی دسترسی به اطلاعات جهانی را در اختیار شما قرار دهیم؟ اگرچه حساب فایده ای جذابیت عملی دارد ، اما پیامدهای ناخواسته خود را دارد – فاصله گرفتن از کارآفرینان و سرمایه گذاران آنها از پذیرش مسئولیت. چرا باید نسبت به عواقب مضری که قصد ایجاد آن را نداشته اند ، خصوصاً وقتی که تجارت آنها منافع اجتماعی زیادی ایجاد می کند ، پاسخگو باشند؟

با وجود دشواری آن ، ما معتقدیم که کارآفرینان و سرمایه گذاران باید فعالیت بیشتری داشته و عواقب ناخواسته تجارت خود را داشته باشند. همانطور که همانت پیشتر نوشت ، طرز تفکر بنیانگذار بخشی جدایی ناپذیر از تغییر در نحوه تفکر شرکتها در مورد پیامدهای مورد نظر و ناخواسته است. بدون تمایل بنیانگذار به مقابله با این موضوعات چالش برانگیز – و اطراف خود را با اندیشمندان مختلفی برای محافظت از نقاط کور خود محاصره می کند – بعید به نظر می رسد که سازمان روشهایی را ببیند که محصولات آنها می توانند بر جامعه تأثیر بگذارند یا منابع لازم را داشته باشند. برای ایجاد کنترل و تعادل مناسب.

استفاده از قناریهای الگوریتمی

در گذشته ، جلوگیری از اثرات سوverse ناخواسته نوآوری یک چالش بود. بدون رایانه برای کمک به آنها ، شرکت ها فقط می توانند با پیش بینی آینده انسان پیش بینی کنند که چه اتفاقی می افتد و نرده های مناسبی را ایجاد می کنند. یا اینکه آنها مجبور بودند تیم هایی را استخدام کنند تا از نزدیک در مورد چگونگی پیشرفت تأثیر فن آوری آنها در هنگام گسترش نظارت کنند. در بیشتر موارد ، نه این پیش احساس و نه این عملکرد شغلی کافی نبود. تنظیمات دوره خیلی دیر انجام شد زیرا مشکلات فقط وقتی به تیتر اصلی تبدیل شدند. علاوه بر این ، هنگامی که یک فناوری عمیقاً جا افتاد ، شرکتهایی که از آن بهره می برند در حال حاضر منافع اقتصادی عمیقاً کلسی شده ای دارند که توسعه آنها چالش برانگیز است.

در حالی که فناوری های امروزی پیچیده تر هستند و کاهش آنها به طور بالقوه دشوارتر است ، ما در نهایت ابزاری داریم که به ما امکان می دهد مشکلاتی را که خطر خارج شدن از کنترل را دارند شناسایی کنیم – هوش مصنوعی.

مطالعه عمیق هوش مصنوعی می تواند به شناسایی الگوهایی کمک کند که ممکن است افراد نتوانند به راحتی آنها را تشخیص دهند و به ما توانایی های جدید پیش بینی شده کشف شده را می دهد. گنجاندن قناریهای الگوریتمی در فناوریهای ما اولین گامی است که باید برای پیش بینی و کاهش عوارض جانبی برداریم.

به عنوان مثال ، ما در حال توسعه مدل های هوش مصنوعی ، مانند موسسه آلن برای AI’s Grover ، هستیم که “اخبار جعلی” را جستجو می کند و اطلاعات غلط را قبل از رسیدن به مخاطبان گسترده مسدود می کند. موسسه بروکینگز اخیراً چندین نمونه دیگر از مدل های هوش مصنوعی ارائه کرده است که می توانند اخبار جعلی را تولید و شناسایی کنند. تحقیقات آنها نتیجه گرفت که گروور 92 درصد دقت در کشف اخبار انسان به ماشین داشته است.

ما پیشنهاد می کنیم که قناری های الگوریتمی مشابه می توانند برای کاهش طیف گسترده ای از عواقب ناخواسته ایجاد شوند. نکته این است که ما در حال حاضر این الگوریتم های گذشته نگر AI را ایجاد می کنیم. در آینده ، ما معتقدیم که بنیانگذاران باید این سیستمها را در مراحل اولیه فرآیند تولید محصول به کار گیرند. اتخاذ یک رویکرد سیستماتیک به مسئولیت پذیری و بیان صریح آن به عنوان یک OKR (هدف و نتیجه کلیدی) به تیم های مهندسی اجازه می دهد تا قناری ها را در عمق فن آوری های خود جاسازی کنند و آنها را به عنوان KPI (شاخص های اصلی عملکرد) ردیابی کنند. به این ترتیب ، شرکت ها می توانند آنچه را که واقعاً فراتر از موفقیت در کسب و کارشان مهم است ، اندازه گیری کنند – پیامدهای ناخواسته بالقوه فناوری آنها و مسئولیت رهبرانشان در کاهش آن.

بیان انواع پیامدهای غیر ارادی

در حالی که امروزه نمونه اخبار جعلی به عنوان پیامدی غیرعمد از بسترهای رسانه ای آشکار به نظر می رسد ، چالشی که سازندگان در ایجاد قناریهای الگوریتمی با آن روبرو هستند این است که چه چیزی را به آنها یاد دهند که بگیرند. ما به این الگوریتم ها برای پیش بینی عواقب ناخواسته ناخواسته ای که ممکن است ناشی از اقدامات انجام شده توسط خود شرکت ها باشد ، مانند چالش های حفظ حریم خصوصی مصرف کننده ، هنگامی که مدل کسب و کار به ارائه داده هایی که از طریق تبلیغات می توانند از آنها درآمد کسب کنند ، پیش بینی می کنیم ، پیش بینی می کنیم. آنها همچنین باید عواقب رویدادهایی را که ممکن است خارج از کنترل یک شرکت رخ دهد ، شناسایی کنند ، اما در صورت انتظار می توانند با از دست دادن بخشهای کل نسل به دلیل عدم دسترسی به آموزش در صورت بروز بیماری همه گیر ، آنها را کاهش دهند. در نهایت ، در حالی که انواع عوارض جانبی از یک شرکت به شرکت دیگر متفاوت است ، ما باید شروع به ساختن یک نوع گونه کنیم تا تفکر خود را به طور جمعی هدایت کنیم.

چارچوب ESG ، که سرمایه گذاران اکنون از آن حمایت می کنند ، یک نقطه شروع مفید است زیرا ما را تشویق می کند تا درباره عواقب ناخواسته ای که کل طیف زیست محیطی ، اجتماعی و مدیریتی را در بر می گیرد فکر کنیم. با این حال ، با توجه به جزئیات مورد نیاز برای توسعه قناریهای الگوریتمی ، این نوع شناسی برای کاربردی بودن به ویژگیهای بیشتری احتیاج دارد. چند نمونه از انواع ویژگی های مورد توجه عبارتند از:

  • انتشار اطلاعات نادرست
  • تمرکز اطلاعات و قدرت بازار
  • نقض محرمانه بودن و اطلاعات شخصی
  • نابرابری در حال رشد در نیروی کار
  • دسترسی به کالاها و خدمات اساسی کاهش یافته است
  • بیگانگی یا انزوای اجتماعی
  • آسیب رساندن به محیط زیست

این لیست به هیچ وجه جامع نیست ، اما انواع عوارض جانبی را که باید مورد توجه قرار دهیم ، بیان می کند.

مدیریت پیامدهای پیش بینی نشده

چارچوبی برای دسته بندی واکنشهای جانبی تنها در صورتی مفید است که توسط یک عمل منظم پشتیبانی شود. الگوریتم ها می توانند بسیاری از کارهایی را انجام دهند که انسان نمی تواند انجام دهد. با این حال ، رهبران سازمان باید این تلاش ها را فراتر از تمرین فکری انجام دهند. در اینجا چند پیشنهاد در مورد چگونگی همکاری بنیانگذاران ، سرمایه گذاران و تنظیم کنندگان برای کاهش عوارض جانبی در عمل وجود دارد:

  • از همان ابتدا به پیامدهای ناخواسته توجه کنید. کارآفرینان و سرمایه گذاران هنگام تأسیس شرکت باید بر تحلیل عمیق پیامدهای ناخواسته اصرار ورزند. بنیانگذاران باید این ملاحظات را در مواد رزینی خود بگنجانند و سرمایه گذاران باید با تلاش و کوشش عمیق در آنها وارد شوند. وقتی کارآفرینان و سرمایه گذاران یک همکاری را در نظر می گیرند ، پیش بینی عواقب پیش بینی نشده باید به اندازه سایر شاخص های تجاری مهم باشد.
  • حاکمیت شرکتی شرقی جهت کاهش عوارض جانبی. بنیان حاکمیت شرکتی هیئت مدیره است که به مشاغل کمک می کند تا تصمیمات مهم بگیرند و مسئولیت های محرمانه خود را انجام دهند. شرکت های بیشتر و بیشتر دارای تابلوهای مشاوره مستقل هستند که به راهنمایی موضوعات خاص پیرامون توسعه فناوری کمک می کنند. به همین ترتیب ، شرکت ها باید برای ایجاد چگونگی کنار آمدن با عواقب ناخواسته ، کمیته های فرعی را در هیئت مدیره های موجود خود یا حتی ممکن است تشکیل دهندگان مستقل ، همانطور که اکنون فیس بوک در حال بررسی است ، در نظر بگیرند. این اطمینان می دهد که به عوارض جانبی به اندازه سایر عواملی که حاکمیت خوب نیاز دارد اهمیت داده می شود.
  • برای ایجاد پاسخگویی با تنظیم کننده ها شریک باشید. برای مقابله با عواقب پیش بینی نشده ، باید به مقررات منطقی که از منافع جمعی ما محافظت می کند ، باز باشیم. برای ما مفید خواهد بود اگر نوآوران گرد هم آیند و چارچوبهایی را برای خودتنظیم ارائه دهند ، اگرچه سازمانهای نظارتی نیز می توانند نقش مفیدی داشته باشند. FDA نمونه خوبی از آژانس است که آسیب پزشکی ناخواسته ای را که ممکن است داروی یا دستگاه جدیدی قبل از تأیید آن برای توزیع داشته باشد ، با دقت بررسی می کند. ما می توانیم تصور کنیم که سایر آژانس ها نیز می توانند نقشی مشابه در راه اندازی فناوری های جدید داشته باشند ، هرچند ما می خواهیم آنها دست و پا گیر و وقت گیر باشند.

در حال حاضر ، اخلاقی که کسانی را در تقاطع فناوری ، سیاست و سرمایه راهنمایی می کند ، ایجاد مشاغلی است که بتوانند از فن آوری های جدید استفاده کنند ، آنها را در اسرع وقت مقیاس بندی کرده و مقررات را حفظ کنند. ما اختلالات را یادداشت کردیم ، اما هیچ اتهامی راجع به قطع ناخواسته که ممکن است ایجاد کنند ، مطرح نکردیم. نتیجه این امر ایجاد شرکتهایی بوده است که در زندگی ما همه جا حاضر شده اند ، اما همچنین دامنه وسیعی از عواقب ناخواسته مضر را نیز به وجود آورده اند. ما از روحیه جدیدی از نوآوری حمایت می کنیم که در آن عوارض جانبی در ابتدا دقیقاً در نظر گرفته می شوند و به مرور کنترل می شوند تا به میزان قابل توجهی کاهش یابد. ما اعتقاد داریم که می توانیم از طریق نوآوران فناوری در ساخت الگوریتم های نرم افزاری به این هدف دست پیدا کنیم که می تواند به عنوان قناری برای خسارت در حال ظهور ، تأمین کنندگان سرمایه برای ارزیابی و مدیریت احتمالی و سیاست گذاران ارزیابی احتمالی برای اطمینان از انطباق عمل کنند. آنها این اخلاق کاملاً متفاوتی است ، اما اگر بخواهیم از زندگی در دنیای dystopian اجتناب کنیم ، پذیرش آن مهم است.


منبع: bighat-news.ir

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>