بر اساس نظریه حکمرانی، همواره حکمرانی خود را با شرایط جدید تطبیق داده و از آنها در جهت هدفمند سازی کانون حاکمیت استفاده کرده است. حمکرانی هوش مصنوعی تعریف مجموعه‌ای از مقررات و سیاست‌ها است تا اطمینان حاصل شود که الگوریتم‌های هوش مصنوعی و یادگیری ماشین با هدف پذیرش عادلانه هوش مصنوعی برای مردم توسعه یافته است. حاکمیت هوش مصنوعی به مسائل مختلفی که مسئول تضمین استفاده اخلاقی از هوش مصنوعی از جمله شفافیت، تعصب، حریم خصوصی، مسئولیت‌پذیری و ایمنی است می‌پردازد. بنابراین، هر گونه مسائل مربوط به سوء استفاده از AI یا نقض قوانین توسط حاکمیت AI رسیدگی می‌شود.

تمرکز اصلی حاکمیت هوش مصنوعی بر نحوه ارتباط آن با عدالت، استقلال و کیفیت داده است. علاوه بر این، حکمرانی کارآمد هوش مصنوعی نیازمند همکاری بین ذینفعان، مانند سازمان‌های دولتی، موسسات دانشگاهی، سازمان‌های صنعتی و گروه‌های جامعه مدنی است. هدف از حاکمیت هوش مصنوعی، رسیدگی به دسترسی، کنترل داده‌ها، اطلاعات شخصی و استفاده از هوش مصنوعی به روش اخلاقی است که به حداکثر رساندن سود و مزایای بالقوه و به حداقل رساندن آسیب‌ها، غیرقانونی‌ها و بی عدالتی‌ها کمک می‌کند. چارچوب حاکمیت هوش مصنوعی می‌تواند شامل موارد زیر باشد:

  1. تدوین و توسعه کد‌های رفتار و دستورالعمل‌های اخلاقی برای توسعه‌دهندگان
  2. ایجاد مکانیسم‌هایی برای ارزیابی تأثیر اجتماعی و اقتصادی هوش مصنوعی
  3. ایجاد چارچوب‌های نظارتی برای اطمینان از استفاده ایمن و قابل اعتماد از هوش مصنوعی

بنابراین، زمانی که حاکمیت هوش مصنوعی به درستی پیاده سازی شود، هوش مصنوعی سازمان را ارتقا داده و به آن قدرت می‌بخشد تا به جای کاهش سرعت، با اعتماد و چابکی بیشتر قدم بردارند. هدف از حاکمیت هوش مصنوعی محافظت از سازمان‌ها، شرکت‌ها و مشتریانی است که از هوش مصنوعی در نرم‌افزار‌ها و فناوری‌های نوظهور استفاده می‌کنند. آن‌ها این کار را با ایجاد یک راهنما یا خط مشی مشخصی برای سازمان‌ها انجام می‌دهد تا استفاده از هوش مصنوعی قانونی را ترویج کنند. چند نمونه از اصول حاکمیت هوش مصنوعی شامل این موارد هستند:

  1. ایجاد همدلی: پیاده سازی هوش مصنوعی به گونه‌ای که پیامد‌های اجتماعی و نحوه پاسخگویی و احترام به عواطف انسانی را به خوبی درک کند بسیار مهم است. عدم تعیین مرز‌ها و قوانین در پیاده سازی هوش مصنوعی می‌تواند به احساسات انسانی آسیب وارد نموده و شهرت و اعتبار یک شرکت را زیر سوال ببرد.
  2. شفافیت: طراحی سیستم‌های هوش مصنوعی و تأیید الگوریتم‌های هوش مصنوعی که به وضوح عملیات تصمیم‌گیری را توضیح دهد می‌تواند در آینده به جلوگیری از نارضایتی یا ناامیدی مشتری و امکان پاسخگویی و بررسی دقیق کمک کند. بنابراین، شرکت‌ها باید در هنگام طراحی الگوریتم چنین مواردی را در نظر بگیرند و توضیح شفافی را در هنگام زمان بروز مشکل برای مشتریان خود داشته باشند.
  3. عدم تبعیض: سیستم‌های هوش مصنوعی ممکن است به صورت ناخواسته تبعیض‌ها و سوگیری‌هایی را ایجاد کند. از این رو اطمینان از اینکه سیستم‌های هوش مصنوعی حقوق بشر مربوط به جنسیت، مذهب یا نژاد را نقض نمی‌کند ضروری است تا بتواند با همه انسان‌ها رفتار عادلانه‌ای داشته باشد. بنابراین، یکی از اصول کلیدی استقرار حاکمیت هوش مصنوعی این است که استقرار آن عادلانه و بدون تبعیض نژادی و قومیتی باشد.
  4. کنترل تعصب: سیستم‌های هوش مصنوعی تمامی تصمیمات خود را براساس داده‌ها می‌گیرند. از این رو، سازمان‌ها باید یادگیری ماشین خود را برای تشخیص سوء‌گیری‌هایی که ممکن است ناخواسته وجود داشته باشند استفاده کنند.
  5. مسئولیت‌پذیری: توسعه و استقرار هوش مصنوعی باید با خطوط شفافی از مسئولیت‌پذیری در قبال پیامد‌های نامطلوب ناشی از استفاده از آن‌ها همراه باشد. از این رو برای شرکت‌های هوش مصنوعی بسیار مهم است که اگر مشکلی در کیفیت و دقت ایجاد شده در سیستم‌های هوش مصنوعی پدیدار شد این سیستم‌های بتوانند پاسخگویی خود را حفظ کنند.
  6. ایمنی و قابلیت اطمینان: سیستم‌های هوش مصنوعی می‌توانند رفاه و آسایش افراد را افزایش دهند. بنابراین، در همین راستا پیاده سازی سیستم‌های هوش مصنوعی که در عین ایمنی و قابلیت اعتماد باعث بالا رفتن رفاه انسان‌ها شوند ضروری است. سازمان‌ها باید طیف وسیعی از عوامل مانند کیفیت داده‌ها، معماری سیستم، فرآیند‌های تصمیم‌گیری، الگوریتم‌ها و موارد دیگر را برای اطمینان از ایمنی در سیستم‌های هوش مصنوعی به کار گیرند.

هوش مصنوعی با مجموعه‌ای از خطرات و محدودیت‌های خاص خود همراه است و برخی از مواقع این سیستم‌ها تصمیمات درستی نمی‌گیرند. علاوه بر این، ۷۶ درصد از مدیران نگران تعصبات نادرست و عدم شفافیت بازار جهانی هستند. در اینجا است که حاکمیت هوش مصنوعی، خطرات هوش مصنوعی را نظارت و مدیریت می‌کند و استقرار هوش مصنوعی اخلاقی و مسئولانه را تضمین می‌کند. بنابراین، حاکمیت هوش مصنوعی به اطمینان از شفافیت، انصاف و مسئولیت‌پذیری در سیستم‌های هوش مصنوعی کمک می‌کند و حریم خصوصی را تضمین و به حقوق بشر کمک می‌کند.

تقسیم‌بندی حاکمیت هوش مصنوعی به لایه‌های مختلف می‌تواند به استقرار و پیاده سازی بهتر و یکپارچه قوانین کمک کند. با این حال، هیچ مدل استاندارد یا واحد توافق شده‌ای لایه‌های حاکمیت هوش مصنوعی را تعریف نمی‌کند، چرا که هر شرکت و سازمان لایه‌های متفاوتی را تعریف می‌کنند. با این وجود، در اینجا یک روش معمول وجود دارد که چندین سازمان لایه‌های حاکمیت هوش مصنوعی را تنظیم می‌کند:

  1. لایه قانونی و نظارتی: این لایه شامل ایجاد، ایده پردازی و اجرای سیاست‌ها و استاندارد‌هایی است که در زمان استقرار و توسعه هوش مصنوعی لازم است. علاوه بر این موارد، شامل ملاحظات اجتماعی و اخلاقی است که اجرای هوش مصنوعی را شکل می‌دهد.
  2. لایه فنی: این لایه شامل طراحی و اجرای فنی سیستم هوش مصنوعی، از جمله نگرانی‌هایی مانند امنیت سایبری و کیفیت داده‌ها است.
  3. لایه سازمانی: این لایه معمولاً شامل نظارت و مدیریت سیستم‌های هوش مصنوعی در سازمان‌ها از جمله استفاده، توسعه و پیاده سازی آن‌ها می‌شود. علاوه بر این موارد، این لایه همچنین به مسائل پاسخگویی، مدیریت ریسک و شفافیت نیز می‌پردازد.
  4. لایه بین‌المللی: این لایه شامل همکاری و هماهنگی کشور‌ها و سازمان جهانی برای توسعه استاندارد‌ها، هنجار‌ها و مقررات مشترک فناوری هوش مصنوعی است.
  5. لایه اجتماعی: این لایه شامل تأثیر اجتماعی و فرهنگی و استفاده از سیستم‌های هوش مصنوعی، از جمله آموزش، حقوق بشر، حریم خصوصی، برابری و بسیاری از مسائل اجتماعی دیگر است.

این لایه‌ها متمایز نیستند اما یک رویکرد مشترک و چند رشته‌ای را شامل می‌شوند که دربرگیرنده ذی‌نفعان از بخش‌های مختلف برای فعال کردن حکمرانی هوش مصنوعی است. عدم اندازه‌گیری درست و دقیق هوش مصنوعی و سیستم‌های آن می‌تواند برای سازمان‌ها مشکل‌ساز شود. برای مدیریت صحیح هوش مصنوعی در یک سازمان، بسیار مهم است که مشخص کنیم چه کسی مسئول تضمین حاکمیت هوش مصنوعی است. علاوه بر در نظر گرفتن قوانین و مقررات دولتی، سازمان‌ها باید اقداماتی را نیز برای حمایت از تصمیمات استراتژیک انجام دهند. این اقدامات عبارتند از:

  • امنیت: درک استفاده درست از داده‌ها و بالا بردن امنیت در سیستم‌های هوش مصنوعی ضروری است و هر گونه لغزشی می‌تواند منجر به آسیب‌های جدی گردد.
  • انطباق با مقررات: یکی دیگر از روش‌های اندازه‌گیری هوش مصنوعی، درک سازمان‌ها با انطباق با مقررات، استاندارد‌ها و الزامات مرتبط با هوش مصنوعی است. این اقدامات شامل ارزیابی امنیت سازمان، حریم خصوصی و دستورالعمل‌های اخلاقی است.
  • تعصب: تعصب در هوش مصنوعی، به تحریف‌ها و خطا‌های سیستیماتیکی اشاره دارد که می‌تواند در طول توسعه سیستم‌های هوش مصنوعی رخ دهد که می‌تواند منجر به نتایج تبعیض‌آمیز شود. اندازه‌گیری حاکمیت هوش مصنوعی از طریق سو‌گیری شامل ارزیابی عادلانه بودن الگوریتم هوش مصنوعی، دسترسی به فرآیند‌های تصمیم‌گیری سیستم هوش مصنوعی و ارزیابی کیفیت و نمایندگی مجموعه داده‌های آموزشی است.
  • شفافیت: شفافیت در هوش مصنوعی به میزان باز بودن و قابل درک بودن عملکرد و عملیات درونی سیستم هوش مصنوعی اشاره دارد. سازمان‌ها می‌توانند سطح شفافیت را در سطوح استقرار و توسعه اندازه‌گیری کنند.
  • حسابرسی: در هوش مصنوعی، حسابرسی به بررسی سیستیماتیک و مستقل سیستم‌ها، محیط‌ها و سیاست‌ها و رویه‌های هوش مصنوعی سازمان اشاره دارد. ممیزی‌ها بر جنبه‌های مختلف حاکمیت هوش مصنوعی، از جمله ارزیابی مدیریت داده‌ها، کاهش تعصب، توسعه مدل، تصمیم‌گیری الگوریتمی، حریم خصوصی و بررسی اسناد اخلاقی تمرکز دارد.
  • پاسخگویی: در هوش مصنوعی، پاسخگویی به فرآیندی اطلاق می‌شود که کاربران، توسعه‌دهندگان و سایر ذینفعان در قبال اقدامات سیستم هوش مصنوعی پاسخگو و مسئول هستند. این شامل روشن کردن مسئولیت یک فرد و نقش آن‌ها در استفاده از سیستم‌های هوش مصنوعی است. مکانیزم‌های ارزیابی پاسخگویی شامل کمیته‌های نظارتی، چارچوب‌های مسئولیت و هیئت‌های بررسی اخلاقی است.

اندازه‌گیری حکمرانی هوش مصنوعی با در نظر گرفتن عوامل متعددی مانند شفافیت، انصاف، مسئولیت‌پذیری، امنیت، تعصب و مقررات چند وجهی است.

حاکمیت هوش مصنوعی به سازمان‌ها کمک می‌کند تا خطرات و هزینه‌های مرتبط با سازمان را کاهش دهند و در عین حال خطرات و هزینه‌های مرتبط را به حداقل برسانند. در ادامه مهمترین مزایای حاکمیت هوش مصنوعی آورده شده است:

۱- تضمین استفاده مسئولانه از هوش مصنوعی: حاکمیت هوش مصنوعی سازمان‌ها و سیستم‌های هوش مصنوعی را به روشی شفاف، اخلاقی و پاسخگو توسعه می‌دهد و از آن‌ها استفاده می‌کند. استفاده مسئولانه از هوش مصنوعی به ارتقای اعتماد عمومی در سیستم‌ها و فناوری‌های هوش مصنوعی کمک می‌کند و با تأثیر منفی آن‌ها مبارزه می‌کند.

۲- بهبود بهره‌وری: سیستم‌های هوش مصنوعی به خوبی اداره می‌شوند و با خودکار کردن وظایف اضافی، افزایش تصمیم‌گیری و به حداقل رساندن دامنه خطا‌ها به ارتقا بهره وری و کارایی کمک می‌کنند.

۳- بهبود عدالت: دسترسی بهتر به داده‌ها در حاکمیت هوش مصنوعی به ارتقای انصاف و برابری در جمع‌آوری داده‌ها کمک می‌کند، به پیش‌بینی‌های دقیق و جلوگیری از خطرات ناشی از نتایج کمک می‌کند.

۴- مشارکت و همکاری را تقویت می‌کند: حاکمیت هوش مصنوعی به طور قابل توجهی مشارکت و همکاری میان چندین ذینفع مانند دولت، صنعت، جامعه مدنی را تسهیل می‌کند. این به ارتقا درک عمومی مشترک از مزایای هوش مصنوعی و ایجاد راه‌حل‌های مشترک برای خطرات و چالش‌های هوش مصنوعی کمک می‌کند.

حاکمیت هوش مصنوعی می‌تواند مزایای زیادی را به همراه داشته باشد. با این حال، پیاده سازی حاکمیت هوش مصنوعی ممکن است با چالش‌های زیادی همراه باشد، از جمله:

  1. کیفیت داده: هوش مصنوعی برای تولید نتایج دقیق، سازگار و قابل اعتماد به داده‌های باکیفیت نیاز دارد. با این حال، دستیابی به جمع‌آوری، تمیز کردن و تجزیه و تحلیل داده‌های مناسب در برخی از مواقع می‌تواند دشوار باشد. این چالش به ویژه در هنگام اعتبار سنجی داده‌های ورودی دشوار است.
  2. تعصب: این مورد زمانی اتفاق می‌افتد که داده‌های مورد استفاده بر روی معیار‌های مناسبی تمرکز نداشته باشند، برچسب‌های نادرست داشته باشند و موارد مهم را پوشش ندهند. همه این موارد می‌تواند منجر به نتایج تبعیض آمیز شود. تعصب در پیاده سازی هوش مصنوعی معمولاً از مجموعه داده‌هایی ناشی می‌شود که اطلاعات جامعی را به اندازه کافی ارائه نمی‌دهند.
  3. الزامات انطباق: نهاد‌های نظارتی و استاندارد‌های صنعت، سازمان‌ها را ملزم می‌کنند تا الزامات خاصی را برای حفاظت از داده‌ها رعایت کنند. صنایع ملزم هستند تا امور مالی و مراقبت‌های بهداشتی را رعایت کنند تا از جریمه‌ها و آسیب‌های اعتباری در امان بمانند.
  4. شفافیت: الزامات قانونی برای شفافیت می‌تواند چالش مهمی برای سیستم‌های هوش مصنوعی مبتنی بر یادگیری ماشین باشند. این سیستم‌ها ذاتاً شفاف نیستند و بسیاری از متخصصان هوش مصنوعی نمی‌دانند که سیستم‌هایشان چگونه کار می‌کند.
  5. مانیتورینگ: حاکمیت هوش مصنوعی برای دستیابی به میزانی از دید مورد نیاز برای شناسایی تخلفات، تشخیص مسائل، ثبت اطلاعات برای اهداف حسابرسی نیاز به نظارت دارد.

سازمان‌های می‌توانند با اجرای رویکرد حریم خصوصی به طراحی هوش مصنوعی و حریم خصوصی داده‌ها به عنوان دو جزء از چرخه حیات به بسیاری از مسائل پاسخ دهند. در اینجا ما راه حل‌هایی را معرفی می‌کنیم که می‌تواند به حل چالش‌های حاکمیت هوش مصنوعی کمک کند:

  • حریم خصوصی: حریم خصوصی به اشتراک‌گذاری عمومی اطلاعات مربوط به یک مجموعه داده خاص را امکان‌پذیر می‌کند. این بخش شامل توصیف الگو‌های گروه‌ها است در حالی که اطلاعات افراد را در که مجموعه داده‌ها ذخیره شده است را پنهان می‌کند. هر سازمانی سیاست و خط‌مشی متفاوتی را برای حفظ حریم خصوصی دارند. تکنیک‌های رایج مانند افزودن داده‌های مصنوعی به عنوان نویز به مجموعه داده‌ها و در عین حال حفظ ویژگی پیش‌بینی داده‌ها مفید است.
  • :K-Anonymization این تکنیک تمام داده‌هایی را که می‌تواند یک فرد شناسایی کنند در مجموعه‌ای از داده‌ها متشکل از افراد دیگر با ویژگی‌های مشابه را ترکیب می‌کند. تکنیک K-Anonymization معمولاً به عنوان پنهان شدن در میان انبوه جمعیت شناخته می‌شود.
  • De-Identification: این تکنیک شامل پوشاندن ویژگی‌های حساس و‌شناسه‌های شخصی با مقادیر غیرحساس است. این تکنیک از مجموعه قوانین مختلف استفاده می‌کند. به عنوان مثال، می‌توانید برخی از شماره‌ها را با ستاره پنهان کنید و فقط آخرین رقم‌ها را نشان دهید.

دکتر عباس خداپرست

#حاکمیت #هوش_مصنوعی #داده #اطلاعات #دکتر_عباس خداپرست #عباس_خداپرست #حاکمیت_هوش_مصنوعی #حکمرانی #مدیریت #مدیریت_دولتی