این مقاله علمی پژوهشی به زبان انگلیسی همراه با ترجمه تخصصی از نشریه arxiv مربوط به سال ۲۰۱۸ دارای ۶ صفحه ی انگلیسی با فرمت PDF و ۱۶ صفحه ترجمه فارسی به صورت فایل WORD قابل ویرایش می باشد در ادامه این صفحه لینک دانلود رایگان مقاله انگلیسی ، بخشی از ترجمه فارسی مقاله و لینک خرید آنلاین ترجمه ی کامل مقاله موجود می باشد.
کد محصول: M1183
سال نشر: ۲۰۱۸
نام ناشر (پایگاه داده): arxiv
نام مجله: Computers and Society
نوع نگارش مقاله: علمی پژوهشی (Research articles)
تعداد صفحه انگلیسی: ۶ صفحه PDF
تعداد صفحه ترجمه فارسی: ۱۶ صفحه WORD
قیمت فایل ترجمه شده: ۲۱۰۰۰ تومان
عنوان کامل فارسی:
مقاله انگلیسی ترجمه شده ۲۰۱۸ : چگونگی و چرایی کاربرد هوش مصنوعی در تصمیمات بخش دولتی: توضیح و ارزیابی
عنوان کامل انگلیسی:
Hows and Whys of Artificial Intelligence for Public Sector Decisions: Explanation and Evaluation
برای دانلود رایگان مقاله انگلیسی بر روی دکمه ذیل کلیک نمایید
وضعیت ترجمه: این مقاله به صورت کامل ترجمه شده برای خرید ترجمه کامل مقاله بر روی دکمه ذیل کلیک نمایید (لینک دانلود بلافاصله بعد از خرید نمایش داده می شود)
مقالات مرتبط با این موضوع: برای مشاهده سایر مقالات مرتبط با این موضوع (با ترجمه و بدون ترجمه) بر روی دکمه ذیل کلیک نمایید
چکیده فارسی:
“ارزیابی” همیشه یک چالش اساسی در توسعه نرم افزارهای مبتنی بر هوش مصنوعی (AI) به دلیل پیچیدگی فنی نرم افزار و فرآیندهای پیچیده اجتماعی – فنی موجود درآن، بوده است. پیشرفت های اخیر در یادگیری ماشین (ML) که توسط شبکه های عصبی عمیق امکان پذیر شده است ، چالش ارزیابی چنین نرم افزارهاییی را به دلیل ماهیت مبهم این محصولات مصنوعی مبتنی بر ML ، تشدید کرده است. یک موضوع مهم کلیدی ، توانایی (ناتوانی) این سیستم ها در تولید توضیحات مفید در مورد خروجی هایشان است و ما معتقدیم که مسائل توضیح و ارزیابی به طور تنگاتنگی با هم مرتبط هستند. این مقاله عناصر یک سیستم AI مبتنی بر ML را در زمینه برنامه های تصمیم گیری بخش دولتی (PSD) شامل هوش مصنوعی و انسانی مدل سازی می کند ، و در ارزیابی و توضیح، این عناصر را بر خلاف مسائل ترسیم می کند و نحوه ارتباط این دو را نشان می دهد. ما با توجه به مدل خود تعدادی مدل کاربرد PSD متداول را در نظر می گیریم و مجموعه ای از موضوعات اصلی مرتبط با توضیح و ارزیابی را در هر مورد شناسایی می کنیم. در نهایت ، ما چندین استراتژی را برای ترویج پذیرش گسترده تر فناوری های AI / ML در PSD پیشنهاد می کنیم ، به طوری که هر کدام بر اساس تمرکز بر عناصر مختلف مدل ما تفکیک می شوند ، و به سیاست گذاران PSD اجازه می دهد رویکردی که متناسب با زمینه و نگرانی های آنها باشد ،انتخاب کنند.
مقدمه
ارزیابی در توسعه نرم افزار مبتنی بر هوش مصنوعی ( AI) یک مساله دشوار است و همیشه هم، همین طور بوده است. برای هر سیستم نرم افزاری، ارزیابی از درستی یابی و اعتبار سنجی (IEEE, 1990) تشکیل می شود، به طور محاوره ای به صورت ذیل تعریف می شود: درستی یابی بر “درست سازی سیستم” متمرکز است (یعنی اطمینان حاصل نمودن از رعایت مشخصات فنی آن)؛ اعتبار سنجی بر “ساخت سیستم درست” تمرکز دارد (یعنی، اطمینان حاصل نمودن از اینکه این سیستم، نیازهای ذی نفعان خود را تامین میکند). هر دو برای یک سیستم مبتنی بر هوش مصنوعی، دشوار هستند: درستی یابی، چون پیچیدگی فنی مصنوع نرم افزاری بر تکنیک های درستی یابی نرم افزاری سنتی پافشاری دارد (اُکیف و اُلری، ۱۹۹۳)؛ اعتبار سنجی، چون سیستم های مبتنی بر هوش مصنوعی، معمولا به صورت بخشی از یک سیستم تصمیم گیری پیچیده عمل می کنند که شامل هم عناصر نرم افزاری و هم انسانی می شود، سنجش و اطمینان از اثرات مد نظر، بسیار دشوار است (کامینگز، ۲۰۱۴)…
بحث و نتیجه گیری
در ارزیابی سیستم مهم است که بین خروجی سیستم و تأثیرات سیستم تفاوت قائل شویم. در حالی که معیارهای متداول یادگیری ماشین مانند ماتریس های دقت و ابهام (درست / نادرست ،مثبت/ منفی) در مورد عملکرد یک مدل ML دارای اطلاعات مفیدی هستند ، این سوال که آیا سیستم تأثیر “درستی” بر سازمان دارد یا خیر ، یک سوال مجزا است. کل حلقه باید از منظر ادغام سازمانی و طراحی فرآیند مورد توجه قرار گیرد. به ندرت اتفاق می افتد که یک سیستم هوش مصنوعی به سادگی در فرآیندها / سازمان ها / سیستم های موجود “ادغام شود” و در این صورت انتظار می رود تأثیر مطلوبی داشته باشد. علاوه بر این ، مدل تصمیم گیری انسان + ماشین در بالا فرض می کند که عنصر انسانی تصمیم گیری در سازمان هدف به خوبی مشخص شده است – اغلب ، در سازمانهای بزرگ ، تصمیم گیری توزیع می شود ، بنابراین درک تأثیر وارد کردن یک یا چند عنصر هوش مصنوعی به چنین سیستم جمعی بسیار چالش برانگیز می شود…
Abstract
Evaluation has always been a key challenge in the development of artificial intelligence (AI) based software, due to the technical complexity of the software artifact and, often, its embedding in complex sociotechnical processes. Recent advances in machine learning (ML) enabled by deep neural networks has exacerbated the challenge of evaluating such software due to the opaque nature of these ML-based artifacts. A key related issue is the (in)ability of such systems to generate useful explanations of their outputs, and we argue that the explanation and evaluation problems are closely linked. The paper models the elements of a ML-based AI system in the context of public sector decision (PSD) applications involving both artificial and human intelligence, and maps these elements against issues in both evaluation and explanation, showing how the two are related. We consider a number of common PSD application patterns in the light of our model, and identify a set of key issues connected to explanation and evaluation in each case. Finally, we propose multiple strategies to promote wider adoption of AI/ML technologies in PSD, where each is distinguished by a focus on different elements of our model, allowing PSD policy makers to adopt an approach that best fits their context and concerns.
Introduction
Evaluation is, and has always been, a hard problem in the development of artificial intelligence (AI) based software. For any software system, evaluation comprises verification and validation (IEEE 1990), defined colloquially as follows: verification focuses on ‘building the system right’ (i.e., assuring its compliance with technical specifications); validation focuses ‘building the right system’ (i.e., assuring the system meets stakeholders’ requirements). Both are hard for an AIbased system: verification because the technical complexity of the software artifact resists traditional software verification techniques (O’Keefe and O’Leary 1993); validation because AI-based systems commonly operate as part of a complex decision-making system involving both software and human elements, making it very difficult to measure and assure intended effects (Cummings 2014)…
Discussion and Conclusion
It is important in system evaluation to distinguish between system outputs and impacts. While traditional machine learning measures such as accuracy and confusion matrices (true/false positives/negatives) are informative of the performance of an ML model, the question of whether the system is having the ‘right’ impact on the organization is a separate question. The whole loop needs to be considered from a perspective organizational integration and process design It is rare that an AI system will simply be ‘dropped into’ existing processes/organizations/systems and expected to have the desired impact. Moreover, the above model of human+machine decision-making assumes that the human element of decision making in the target organization is well delineated — often, in large organizations, decision making is distributed, so understanding the impact of introducing one or more AI elements into such a collective system becomes extremely challenging…
مقالات مرتبط با این موضوع |
دانلود رایگان مقالات رشته مدیریت دانلود رایگان مقاله انگلیسی مدیریت دولتی با ترجمه دانلود رایگان مقاله انگلیسی درباره تصمیم گیری سازمانی با ترجمه |