گزارش تحقيقى

تخمین تاثیرات نامطلوب هوش مصنوعی در ایران

همزمان با تکثیر فناوری های هوش مصنوعی  در سراسر جهان ، ما به نقش آنها در آینده حقوق دیجیتال در ایران نگاه می کنیم.

اهمیت در نظر گرفتن بستر فضاهای بسته سیاسی در رابطه با هوش مصنوعی 

فناوری‌های شبکه اطلاعاتی همیشه در حال تحول بوده و روی زندگی همه ما تاثیرگذار است. این فناوری‌ها با وجود اینترنت، عملکردها، نوع تعامل در جوامع و حکومت‌ها،بخش فناوری خصوصی را دگرگون کرده‌اند. نزدیک به ۳۰ سال از تولد اینترنت تجاری – وب جهان گستر – می‌گذرد و وعده‌های نخستین آن برای ایجاد تغییرات مثبت اجتماعی، آزادی و دموکراتیک‌سازی دانش با موشکافی شدید و تردید مواجه شده است. در یک دهه گذشته این موضوع کاملاً روشن شده است که در کشورهایی با فضای سیاسی بسته‌، اینترنت تبدیل به سازوکاری به شدت موثر برای کنترل حکومتی می‌گردد. همچنین عوامل نابرابری و سرکوب تاریخی نیز خود را در آن نمایان کرده و کاربران اینترنت را در معرض طیفی از خطرات قرار می‌دهند.

اکنون فناوری نوظهور هوش‌‌ مصنوعی، از یک دوره‌ خوش‌بینانه گذر کرده است، دوره‌ای که حامیانش چشم‌اندازی از فواید این فناوری را برای تمام جوامع در سراسر جهان ارائه می‌کردند. حالا دیگر فناوری هوش مصنوعی به شدت  زیر ذره‌بین قرار گرفته است. هوش مصنوعی به واسطه پیشرفت‌هایی که در زمینه یادگیری ماشین و شبکه‌ی عصبی مصنوعی بوجود آمده، کاربرد گسترده‌ای در زمینه‌هایی مختلف داشته و همین امر خطراتی را برای جوامع به همراه آورده است ، از جمله تکرار نابرابری‌های نژادی، ایجاد ابزارهایی جدید برای نظارت حکومتی و سرکوب، جایگزین شدن هر چه بیشتر نیروی کار انسانی با دستگاه‌های خودکار، بسط و تقویت سیستم سرمایه‌داری نظارتی و مورد مهم آخر، بهره‌کشی از داده‌های گروه‌های به حاشیه رانده شده که می‌توان به عنوان استعمار دیجیتال از آن یاد کرد (به خصوص  کشورهای جنوب جهانی یا همان کشورهای در حال توسعه).

با در نظر گرفتن چنین چالش‌هایی، محققان در حوزه‌های تازه‌ای مانند اخلاقیات و حکمرانی هوش مصنوعی و همینطور پژوهشگران در زمینه تاثیرات این علم  بر حقوق بشر، مشغول تهیه دستورالعمل‌هایی برای کاهش تاثیرات مخرب هوش مصنوعی بوده‌اند. اما بسیاری از این تلاش‌ها حول کشورهای شمال جهانی اتفاق می‌افتد. عدم رسیدگی به رویکرد کشورهایی که کمتر توسعه یافته و دارای فضای بسته سیاسی – مانند خاورمیانه – در علم اخلاقیات هوش مصنوعی،  خطر نادیده انگاشتن بسترهای مهم فرهنگی و محلی را با خود به همراه دارد. این امر نشان می‌دهد چنین دستورالعمل‌هایی در کشورهای کمتر توسعه یافته، بی‌فایده و ناکارا خواهند بود و از آن نگران‌کننده‌‌تر اینکه، این موضوع می‌تواند شهروندان این نواحی را در معرض خطر قرار دهد.

ما با در نظر گرفتن  این نگرانی‌ها، در این گزارش به این موضوع خواهیم پرداخت که فناوری‌های هوش مصنوعی چطور می‌توانند بر زندگی مردم در ایران و همینطور حقوق دیجیتال آنها تاثیر بگذارند. به طور خلاصه به شناسایی برخی از چالش‌ها و نگرانی‌های ناشی از بکارگیری فناوری‌های هوش مصنوعی در کشور خواهیم پرداخت، و نشان خواهیم داد که چطور برخی از فناوری‌های هوش مصنوعی می‌توانند در بسترهای متفاوت، پیامدهای متفاوتی داشته باشند. ما همچنین به این موضوع خواهیم پرداخت که عدم شفافیت دولت در ایران می‌تواند موجب ابهام در  چگونگی استفاده از فناوری‌های هوش مصنوعی گردد.

این مقاله می‌تواند اولین قدم را در تلاش برای شناخته‌شدن رویکردهای تازه در هوش مصنوعی بردارد و این علم را وارد گفتمانی تازه کند. همچنین می‌تواند منبع مفیدی برای کسانی باشد که در حوزه حقوق بشر و حقوق دیجیتال در ایران فعالیت می‌کنند تا از این طریق آگاهی بیشتری نسبت  به چالش‌های موجود در ارتباط  با فناوری‌های نوظهور هوش‌‌ مصنوعی کسب کنند. امیدواریم در ماه‌های آینده، برخی از موضوعات مطرح شده در این گزارش را بسط داده و تحلیل جامع‌تری از کاربرد فناوری‌های هوش مصنوعی توسط دولت و همینطور بخش‌های غیر دولتی در ایران، ارائه دهیم.

توصیفی مختصر از هوش مصنوعی

ارائه تعریف هوش مصنوعی می‌تواند نقطه شروع خوبی باشد، چرا که اصطلاح هوش مصنوعی برای تشریح طیف گسترده‌ای از فناوری‌ها در سال‌های اخیر مورد استفاده قرار گرفته است. ما در اینجا از تعریفی که «سازمان همکاری و توسعه اقتصادی» از هوش مصنوعی ارائه می‌کند استفاده خواهیم کرد. طبق این تعریف، «هوش مصنوعی به سیستمی مبتنی بر ماشین گفته می‌شود که می‌تواند با استفاده از اهداف تعریف شده توسط انسان، به پیش‌بینی، پیشنهاد و تصمیم‌گیری پرداخته و فضاهای واقعی و یا مجازی را تحت تاثیر خود قرار دهد. سیستمهای هوش مصنوعی با میزان‌های مختلفی از خود مختار بودن طراحی می‌شوند.»

 

البته ناگفته نماند که تعریف واحدی از هوش مصنوعی وجود ندارد، و این امر موجب بوجود آمدن چالشی عظیم، به خصوص  در سیاست‌گذاری‌ها، شده است. در یک فضای چند جانبه که شامل متخصصان فناوری، جامعه مدنی و بخش‌های دولتی می‌باشد، ابهام در تعریف می‌تواند موجب شود که برخی از انواع هوش مصنوعی بیش از حد مورد توجه قرار گرفته و برخی دیگر از گردونه خارج شوند. بنابراین مهم است که از چالش‌های موجود حول ارائه تعریف هوش مصنوعی مطلع باشیم. تعریفی که ما در اینجا استفاده می‌کنیم، تنها یک تعریف از میان تعاریف متعددی است دلیل این انتخاب این است  که این تعریف بر نقش داده در آموزش هوش مصنوعی و اهمیت خودکارسازی تاکید می‌کند، دو موردی که برای تخمین تاثیرات نامطلوب هوش مصنوعی بر جوامع، از اهمیت کلیدی برخوردار می‌باشد.

 دولت ایران و هوش مصنوعی

تحلیلگران تا همین جا هشدارهای متعددی درباره احتمال بکارگیری هوش مصنوعی برای قدرت دادن به حکومت‌های اقتدارگرا، را صادر کرده‌اند.

ایران کشوری است که پتانسیل نسبتاً بالایی برای پیشبرد و راه‌اندازی فناوری‌های مبتنی بر هوش مصنوعی در خاورمیانه دارد. شاخص آمادگی دولت‌ها برای استفاده از هوش مصنوعی (The Government AI Readiness Index)، ایران را در بین کشورهای خاورمیانه و شمال آفریقا با امتیاز ۴۲/۸۹ در میانه فهرست قرار می‌دهد. (امارات متحده عربی با امتیاز ۷۲/۴۰ در بالای این فهرست قرار دارد). از طرف دیگر، رتبه‌بندی سای‌ماگو (Scimago Institutions Rankings) ایران را به عنوان یکی از کشورهای پیشرو در زمینه توسعه هوش مصنوعی در خاورمیانه معرفی می‌کند (طبق مقالات منتشر شده). با این حال، هر چند که این رتبه‌بندی‌ها، ما را از این توجه  به پژوهش‌ و توسعه در زمینه هوش مصنوعی مطلع می‌سازد، اما باید محدودیت‌های موجود در روش‌های تحلیل برخی از این شاخص‌ها را در رابطه با کشورهای بسته سیاسی، در نظر داشت.

در ایران، مداخلات حکومت در حیطه سیاست‌‌گذاری‌های اینترنتی اغلب بر گسترش نظارت، سانسور، قطع دسترسی به اینترنت و کنترل زندگی فرهنگی و اجتماعی مردم، تمرکز داشته است. فناوری‌های مبتنی بر هوش مصنوعی از این قابلیت برخوردار‌اند که توان حکومت را در تمام این موارد، از سیستم‌های تشخیص چهره گرفته تا استفاده از شیوه‌های تحلیل پیش‌بینانه برای کنترل جامعه، تا دروغ پراکنی در اینترنت، افزایش دهند. ایران تمایل خود را در ورود به این حیطه نشان داده است، اما در پیشبرد این هدف بی‌ثبات بوده است؛ تاکنون استراتژی ملی خود را برای بکارگیری هوش مصنوعی منتشر نکرده است، و هر چند در اوایل امسال صحبت‌هایی درباره راه‌اندازی یک مرکز ملی توسعه نوآوری هوش مصنوعی از طرف وزیر فناوری و اطلاعات، محمد جواد آذری جهرمی، مطرح شد، اما هیچ جزییات بیشتری درباره این اقدام منتشر نشد. با این وجود، شواهدی مبتنی بر بکارگیری و یا واردات فناوری‌های هوش مصنوعی توسط دولت و بخش خصوصی وجود دارد.

در گزارشی درباره «گسترش جهانی هوش مصنوعی در خدمت نظارت حکومتی»، ایران به عنوان یکی از واردکنندگان فناوری‌های نظارتی چینی معرفی شده است. همچنین شواهدی وجود دارد مبنی بر این که ایران در حال برنامه‌ریزی برای بکارگیری فناوری‌ها و سیستم‌هایی می‌باشد که توسط آنها شهرهای ایران، به ویژه پایتخت کشور تهران را به شهرهای هوشمند تبدیل کند. علیرغم اینکه ایده شهرهای هوشمند به عنوان راه‌حلی برای رفع معضلات محیط زیستی، ترافیک و برنامه‌ریزی شهری دیده می‌شود، اما در واقع راه دیگریست که نظارت بر فضاهای غیر اینترنتی نیز افزایش پیدا کند.‌ راه‌حل‌های ارائه شده اغلب شامل دوربین‌های مداربسته و حسگرهایی می‌باشد که می‌توانند میزان هنگفتی از داده‌های شهروندان را جمع‌آوری کنند. برخی از این فناوری‌ها هم‌اکنون در ایران به کار گرفته می‌شوند، برای مثال در سیستم‌های کنترل ترافیک در تهران از سیستم‌های تشخیص پلاک خودرو استفاده می‌شود؛ این نرم‌افزارها در داخل کشور طراحی شده‌اند تا با زبان فارسی قابل تطبیق باشند، و توسط پلیس اداره می‌گردند. گزارش شده است که در سال‌های اخیر، برخی از ایرانیان در داخل کشور پیام‌هایی از پلیس دریافت می‌کنند مبنی بر این که قوانین را با برداشتن روسری داخل ماشین شخصی خود، زیر پا گذاشته‌اند. (این پیام‌ها برای برخی از دریافت‌کنندگان به اشتباه فرستاده می‌شود) هنوز مشخص نیست که این افراد چطور‌‌ شناسایی می‌شوند و یا اینکه سیستم‌های هوش مصنوعی و یا خودکار در این رابطه بکارگرفته میشوند یا نه، اما فناوری تشخیص چهره و سیستم‌های تشخیص خودکار دیگر می‌توانند به راحتی برای خودکارسازی و تشدید اقدامات و فعالیت‌های نظارتی، به کار بسته شوند.

ممکن است اینطور به نظر برسد که فناوری‌هایی شرح داده شده در اینجا، از ریسک پایینی برخوردارند، اما دو نتیجه‌گیری مهم از بررسی آنها بدست می‌آید. اول اینکه پیدایش هوش مصنوعی اغلب به صورت نامحسوس اما دسیسه‌آمیز اتفاق می‌افتد و کم‌کم خود را آشکار می‌کند. در نتیجه ممکن است مدت زمانی طول بکشد تا ما بتوانیم به دامنه‌ی عملکرد آن به ویژه در فضاهای بسته سیاسی مانند ایران، به صورت کامل پی ببریم. پیامد دیگر این است که زمانی که چنین اطلاعاتی آشکار می‌شود، کار از کار گذشته و مردم  بدون آنکه مطلع شده باشند و یا از آنها اجازه‌ای کسب شده باشد، در معرض خطر قرار گرفته‌اند. نتیجه‌گیری دوم این است که فناوری‌هایی که به ظاهر پیش‌پا افتاده هستند مثل فناوری‌های کنترل ترافیک، سیستم‌های بهداشت و درمان هوشمند یا حتی سیستم‌های مسیریاب خودرو، می‌توانند بسته به اینکه چه کسانی از آنها استفاده کرده و چه کسانی داده‌های آنها را جمع‌آوری می‌کنند، پیامدهای چشمگیری داشته باشند. به دلایل ذکر شده، لزوم ارائه یک تعریف واضح از هوش مصنوعی توسط متخصصان فن‌آوری، و همینطور فعالان جامعه مدنی و حقوق بشر، آشکار می‌گردد. این افراد می‌بایست پیش از هر چیز برای رسیدن به این تعریف تلاش کرده و به چالش‌هایی که مختص به بستر هر کشور می‌باشد، واقف باشند. داشتن چنین درکی به ویژه زمانی از اهمیت زیادی برخوردار می‌شود که قرار باشد چارچوب‌‌هایی برای اخلاقیات هوش مصنوعی ایجاد شود و مقرراتی برای نظارت بر این چارچوب‌ها شکل بگیرد، به طوری که محافظ حقوق اساسی بشر باشد.

جای دیگری که اهمیت این موضوع خود را نشان می‌دهد زمانی است که فناوری‌های مبتنی بر هوش مصنوعی به کشورهایی صادر می‌شوند که سابقه‌ی بدی در رابطه با حقوق بشر دارند. هر چند درخواست‌های برای کنترل صادرات سیستم‌های حساس و بحث‌برانگیز مثل نرم‌افزار تشخیص چهره وجود داشته، اما باید به این موضوع توجه شود که سیستم‌های هوش مصنوعی که به ظاهر خطرناک و یا مشکل ساز نیستند هم می‌توانند پیامدهای خطرناک مشابهی داشته باشند.

بنابراین توصیه ما این است که پیش از صادرات هر کدام از فناوری‌های هوش مصنوعی به کشورهای اقتدارگرا، ارزیابی‌هایی جدی درباره تاثیرات آن بر حقوق بشر، انجام  شود. همچنین می‌بایست نظارت بهتری بر تمام تبادلات مربوط به فناوری‌های هوش مصنوعی صورت گیرد. ما همزمان‌ می‌بایست این حقیقت را نیز در نظر بگیریم که دیگر کشورهای پیشرو در فناوری هوش مصنوعی مانند چین که سابقه نگران‌کننده‌ای در سوءاستفاده از هوش مصنوعی به منظور نظارت گسترده بر شهروندان خود دارد، بعید است که به خاطر رعایت حقوق بشر، مانع صادرات فناوری‌های خود شوند. این موضوع، لزوم ایجاد و اعمال استانداردهای بین‌المللی سختگیرانه برای استفاده از هوش مصنوعی را تشدید می‌کند. جامعه بین‌الملل می‌بایست این موضوع را درک کند که صرفنظر از اینکه توسعه‌دهندگان، چطور‌ و به چه منظوری این فناوری‌ها را طراحی می‌کنند، کاربران ممکن است از آن‌ها به گونه‌ای استفاده کنند که حقوق بشر به خطر بیفتد. بنابراین ارزیابی‌های تاثیرات مسائل حقوق بشری این فناوری‌ها می‌بایست به گونه‌ای به نظارت بر صادرات چنین محصولاتی بپردازند که گسترش و توسعه آنها در زمینه‌های حساس به صورت غیرمستقیم میسر نگردد‌.

شناخت سیستم: چالش‌های سازمانی

زمانی که صحبت از فناوری‌های نوظهور در میان است، بخش خصوصی یکی دیگر از عوامل کلیدی به حساب می‌آید که باید مورد توجه قرار گیرد. بومی‌سازی اینترنت در ایران توام با تحریم‌های آمریکا – که مانع دسترسی کاربران ایرانی به سرویس‌های بین‌المللی شده است – موجب گشته تا توسعه فناوری‌های داخلی تسریع گردد. «بلد» که اپلیکیشن پرطرفدار اندروید برای مسیریابی است  و توسط کافه بازار (اپ‌ استور ایرانی) ساخته شده، برای برخی از امکانات خود مانند تشخیص گفتار (جستجو از طریق فرامین صوتی) به فناوری هوش مصنوعی متوسل می‌شود. شرکت‌های فناوری ایرانی دیگر نیز به اتخاذ سیستم‌های مبتنی بر پردازش زبان‌های طبیعی و یادگیری ماشین مشغول بوده‌اند.

توسعه چنین سیستم‌هایی مستلزم دسترسی به مقادیر عظیمی از داده می‌باشد. با این حال در ایران قوانین جامعی برای محافظت از داده وجود نداشته و به همین دلیل، کاربران از حقوق و عاملیت محدودی در رابطه با داده‌هایشان و چگونگی بکار گرفته شدن و ذخیره آن‌ها، برخوردار هستند. در نتیجه، این داده‌ها ممکن است که در دسترس مقامات حکومتی قرار گرفته و به منظور نظارت‌های حکومتی و پیگردهای قانونی توسط نظام قضایی و پلیس فتا مورد سوءاستفاده قرار گیرد. علاوه بر این، شورای عالی فضای مجازی، بالاترین نهاد تصمیم‌گیرنده در رابطه با سیاست‌های فضای مجازی در ایران، با تدوین سند «نظام هویت معتبر در فضای مجازی» در تلاش بوده تا ناشناس ماندن هویت و امنیت اینترنتی مردم را محدود کند.

فناوری‌های مبتنی بر هوش مصنوعی در ایران، چالش‌های دیگری را نیز بویژه در رابطه با نابرابری‌های موجود اعم از اقتصادی، جنسیتی و دیگر موارد، ایجاد می‌کند. این مسئله از «داده‌های آلوده» ناشی می‌شود. داده آلوده به داده‌هایی گفته می‌شود که سیستم‌های الگوریتمی توسط آنها آموزش داشته می‌شوند و ممکن است به خاطر نادرست بودن، دست کاری شدن و یا بازنمایی غلط، به تعصب و جهت‌گیری نتایج الگوریتم‌ها ختم شوند. هر چند این چالش در همه‌جا وجود دارد، اما در شرایط ایران این نگرانی‌ها تشدید می‌گردد چرا که گروه‌های به حاشیه رانده شده قومی و مذهبی و همینطور اقلیتهای جنسی و جنسیتی که غالباً در خطر پیگردهای قضایی و یا طرد شدن از جامعه می‌باشند، می‌توانند به دلیل وجود هوش مصنوعی و پردازش خودکار داده‌ها، در معرض خطرات بیشتری قرار بگیرند. این نگرانی می‌تواند هم در مورد بخش خصوصی باشد که برای ارائه خدمات خود (مانند خدمات اقتصادی) از سیستم‌های تصمیم‌گیری الگوریتمی بهره میبرد، و هم در مورد دولت باشد که از این طریق می‌تواند بازنمایی نادرستی از برخی اقشار جامعه ارائه داده و موجب طرد آنها از جامعه شود.

نتایجی که از الگوریتم‌ها حاصل می‌شود، عموماً به عنوان حقیقت در نظر گرفته می‌شوند و از آنجایی که قوانین حقوقی و حمایتی برای به چالش کشیدن چنین تصمیماتی وجود ندارد، برچسب حقیقت بر آنها زده می‌شود. با این وجود، افرادی که در بخش خصوصی مشغول به کار هستند نیز باید بدانند که این سیستم‌ها مستعد خطا بوده و ابهاماتی در پردازش آنها وجود دارد و بنابراین می‌توانند نابرابری‌های موجود در جامعه ایران را تشدید کنند.‌ با علم بر اینکه توسعه سیستم‌های یادگیری ماشین مستلزم دسترسی به میزان زیادی از داده‌ها است، بخش خصوصی در ایران می‌بایست هشیار باشد و درباره جمع‌آوری داده‌های شخصی کاربران خود با شفافیت عمل کند. بخش خصوصی نیز باید از نقایص مجموعه داده‌های خود که از آنها برای آموزش الگوریتم‌ها استفاده می‌کند، باخبر باشد. همچنین علیرغم نبود قوانین حمایتی در کشور، لازم است که بخش خصوصی برای حفاظت از کاربران خود در مقابل سواستفاده‌های احتمالی از داده‌ها، رویکردی غیرمنفعلانه داشته و از اشتراک‌گذاری داده با دولت‌ها پیشگیری کند.

قدم‌های بعدی و چالش‌های پیش رو

در وهله اول این دولت ایران است که باید برای محافظت کاربران ایرانی در مقابل احتمال اثرات مخرب هوش مصنوعی، اقدام کند. دولت ایران نباید فناوری‌های مبتنی بر هوش مصنوعی را به فعالیت‌های نظارتی و یا تجهیزات سانسور خود وارد کند. برای رسیدگی به این معضلات ابتدا باید مقرراتی تعیین شود که به موجب آنها هم استانداردهای محافظت از داده رعایت شود و هم نظارت بر الگوریتم‌ها با استانداردهای بین‌المللی هماهنگ گردد. چنین اصلاحاتی اولین قدم برای محافظت از داده کاربران در مقابل سواستفاده‌ها، و بالا بردن آگاهی مردم و شفافیت سازمان‌ها در رابطه با چگونگی بهره‌برداری از داده، می‌باشد.

علیرغم اینکه هیچ قانون حمایتی برای محافظت از حقوق داد‌ه‌ای مردم وجود ندارد، اما شرکت‌های فناوری در بخش خصوصی در ایران، وظایف و مسئولیت‌هایی در قبال کاربران خود دارند. شرکت‌ها می‌بایست تلاش کنند تا شفافیت بیشتری درباره چگونگی جمع‌آوری داده و همینطور رعایت حفظ حریم خصوصی و امنیت کاربران خود داشته باشند. با توجه با این موضوع که در صورت درخواست دولت برای دسترسی به داده‌های کاربران، قوانین حمایتی از افراد وجود ندارد، شرکت‌ها باید در حد امکان جمع‌آوری داده‌های شخصی کاربران خود را محدود کنند.

توسعه‌دهندگان فناوری هوش مصنوعی در سطح بین‌المللی نیز، اعم از شرکت‌هایی که توسط دولت پشتیبانی می‌شوند و یا متعلق به بخش خصوصی هستند، در این موضوع، به ویژه در رابطه با صادرات برخی از فناوری‌های هوش مصنوعی مانند ابزارهای تشخیص چهره به کشورهای اقتدارگرا، نقش دارند. همه شرکت‌هایی که فناوری‌های خود را به چنین حکومت‌هایی صادر می‌کنند، می‌بایست به ارزیابی هدفمند از تاثیرات حقوق بشری این کار بپردازند تا بتوانند خطرات محتملی را که چنین فن‌آوری‌هایی می‌توانند برای حقوق شهروندان آن کشور ایجاد کنند، بررسی نمایند. این نکته از اهمیت بسیار زیادی برخوردار است، چرا که به دلیل تحریم‌های مداوم آمریکا، احتمالاً ایران خودش از توانایی محدودی برای توسعه چنین فناوری‌هایی برخوردار است.‌ در نتیجه ایران حداقل برای مدتی، در واردات فناوری‌های هوش مصنوعی به  دیگر کشورها متکی است .

در آخر، فعالان بین‌المللی که در تلاشند تا چارچوب‌هایی برای مقررات استفاده از فناوری‌های هوش مصنوعی بنا کنند، می‌بایست به سرعت  از فعالان جامعه مدنی، کنش‌گران و نمایندگان مردم از کشورها و مناطقی که کمتر مورد توجه قرار می‌گیرند، درخواست مشارکت داشته باشند. برای اینکه بتوان استانداردهای حقوق بشری سختگیرانه‌تری را برای اخلاقیات هوش مصنوعی بوجود آورد، باید از تجربیات چنین گروه‌هایی استفاده شود.

همانطور که در ابتدای این گزارش اشاره کردیم، این مقاله تنها مقدمه‌ای است به چالش‌های موجود. ما امیدواریم که در ماه‌های پیش رو برخی از موضوعات مطرح شده را بسط دهیم تا درک بهتری از تاثیرات حقوق بشری فناوری‌های هوش مصنوعی در ایران، هم در بخش‌های دولتی و هم در بخش خصوصی، بدست آوریم.