توسعه دهندگان
گزارش توسعه دهندگان؛

تفاوت رفتار انسان و ماشین در جنگ فرضی بین امریکا و چین

تفاوت رفتار انسان و ماشین در جنگ فرضی بین امریکا و چین

توسعه دهندگان: یکی از بحث های داغ اینروزها درباره ی هوش مصنوعی، تفاوت بین قضاوت ها و تصمیم گیری های انسان و این فناوری محسوب می شود؛ برای اینکه این دو رویکرد دارای خاصیت های اساسی و بنیادین متفاوتی هستند.


به گزارش توسعه دهندگان به نقل از مهر؛ با پیشرفت بیش از پیش فناوری هوش مصنوعی، استفاده از این فنآوری در تصمیم گیری های پیچیده و حیاتی بالاتر از هر زمان دیگری به کانون توجهات تبدیل گشته است. از کاربردهای این فناوری در حوزه های مختلف می توان به حوزه های نظامی، اقتصادی، پزشکی، و اجتماعی اشاره نمود که در هر یک از این حوزه ها هوش مصنوعی توانسته است تأثیرات گسترده ای بر پروسه تصمیم گیری و مدیریت به جا بگذارد. این پیشرفت ها، همزمان با افزایش سرعت پردازش و توانایی تحلیل کلان داده ها توسط هوش مصنوعی، فرصت ها و چالش های زیادی را به دنبال داشته است. یکی از بحث های داغ در این عرصه، تفاوت بین قضاوت ها و تصمیم گیری های انسان و هوش مصنوعی است؛ برای اینکه این دو رویکرد دارای خاصیت های اساسی و بنیادین متفاوتی هستند. در صورتیکه انسان ها در پروسه تصمیم گیری تحت تأثیر احساسات، تجربه و ملاحظات اخلاقی قرار می گیرند، هوش مصنوعی بر پایه داده ها و الگوریتم های از پیش تعریف شده عمل می کند. مهر این نوشتار کوتاه به بررسی دقیق این تفاوت ها پرداخته و همین طور مزایا و مخاطرات استفاده از هوش مصنوعی در مقایسه با قضاوت های انسانی را مورد ارزیابی قرار می دهد. تفاوت انسان و ماشین در الگوی قضاوت قضاوت های انسانی و مبتنی بر هوش مصنوعی در اساس و روش های تصمیم گیری با یکدیگر تفاوت های قابل توجهی دارند. قضاوت انسانی به طور معمول بر پایه تجربه، دانش و احساسات صورت می گیرد. انسان ها قادر به درک شرایط پیچیده از جنبه های مختلف هستند و در خیلی از مواقع با در نظر گرفتن عوامل احساسی و فرهنگی، تصمیم گیری می کنند. کارشناسان معتقدند که بااینکه این رویکرد ممکنست سبب بروز خطاهای انسانی و قضاوت های ناصحیح شود، اما در عین حال امکان تحلیل مسائل از جنبه های غیرمادی و انسانی را نیز فراهم می آورد. در مقابل، هوش مصنوعی از داده ها و الگوریتم های ریاضی برای تحلیل اطلاعات و اتخاذ تصمیم استفاده می نماید. در قضاوت های مبتنی بر هوش مصنوعی، هیچ نوع احساسات، تعصب یا فشارهای روانی دخالت ندارد و تمام تصمیم گیری ها برمبنای داده های ورودی و الگوهای مشخص صورت می گیرد. بنابراین، این امر می تواند به تصمیم گیری های سریع تر و دقیق تر منجر شود، اما در عین حال ممکنست این قضاوت ها به سبب فقدان درک انسانی و عدم توجه به عوامل فرهنگی یا اخلاقی، خطراتی را به همراه داشته باشند. در ادامه به مرور کوتاه مزایا و معایب سپردن تصمیمات به ماشین ها در عصر توسعه هوش مصنوعی می پردازیم. مزایای قضاوت هوش مصنوعی سرعت در پردازش اطلاعات: یکی از اصلی ترین مزایای هوش مصنوعی در قضاوت، سرعت بسیار بالای آن در پردازش حجم عظیمی از داده ها است. هوش مصنوعی قادر می باشد در مدت زمان کوتاهی اطلاعات گسترده ای را تحلیل کند و تصمیم گیری هایی بر پایه داده های عینی عرضه نماید. این توانایی در موقعیت های بحرانی و نیاز به تصمیم گیری سریع، از اهمیت ویژه ای برخوردارست. دقت و عدم تأثیرپذیری از احساسات: قضاوت هوش مصنوعی فاقد احساسات انسانی است؛ امری که می تواند در خیلی از موارد منجر به کاهش خطاهای ناشی از تعصب یا تأثیرات روانی شود. به عنوان مثال، در شرایطی که انسان ها ممکنست تحت تأثیر ترس، خشم یا اضطراب تصمیمات ناصحیح بگیرند، هوش مصنوعی برمبنای داده ها و الگوریتم های منطقی تصمیم می گیرد. توانایی یادگیری و بهبود: هوش مصنوعی همین طور با بهره گیری از الگوریتم های یادگیری ماشینی می تواند با تحلیل تصمیمات گذشته، توانایی های خودرا بصورت مرتب بهبود دهد و در آینده تصمیمات بهتری بگیرد. این قابلیت موجب می شود که هوش مصنوعی به مرور زمان در اتخاذ تصمیمات دقیق تر و کارآمدتر بهتر از انسان عمل کند. مخاطرات قضاوت هوش مصنوعی عدم درک احساسات و شرایط انسانی: یکی از بزرگ ترین مخاطرات استفاده از هوش مصنوعی در قضاوت، ناتوانی آن در درک احساسات و شرایط انسانی است. هوش مصنوعی نمی تواند احساسات، ارزش ها و مسائل فرهنگی یا اجتماعی را بطور کامل درک کند. این خاصیت می تواند در وضعیت حساس منجر به اتخاذ تصمیماتی شود که از نظر انسانی نامناسب یا حتی خطرناک باشند. خطر تشدید بحران ها: در بعضی شرایط، هوش مصنوعی ممکنست تصمیمات تهاجمی تری نسبت به انسان اتخاذ کند. به عنوان مثال، در تصمیم گیری های نظامی، هوش مصنوعی ممکنست بدون توجه به عواقب انسانی یا سیاسی یک اقدام، تصمیماتی بگیرد که موجب تشدید بحران ها یا حتی بروز جنگ شود. این در حالیست که انسان ها باتوجه به تجربه و در نظر گرفتن جنبه های اخلاقی و انسانی، ممکنست در این وضعیت تصمیماتی ملایم تر اتخاذ کنند. ریسک خطاهای سیستمی: هرچند که بی شک هوش مصنوعی از دقت بالایی برخوردار است، اما در اتخاذ تصمیمات حیاتی همچنان خطر بروز خطاهای سیستمی وجود دارد. اشتباهات در طراحی الگوریتم ها یا نقص در داده های ورودی می تواند به تصمیمات ناصحیح و نتایج جدی ناشی از آن منجر شود. مسئله اعتماد و پاسخگویی: یکی دیگر از چالش های مهم دراین زمینه، مسئله اعتماد به تصمیمات هوش مصنوعی و تعیین مسئولیت در صورت بروز خطا است. به عبارت دیگر، اگر هوش مصنوعی تصمیمی اشتباه بگیرد، چه کسی مسئول خواهد بود؟ آیا می توان به سیستم هایی که بدون دخالت انسان تصمیم می گیرند، اعتماد کامل داشت؟ بی گمان پاسخ به این پرسش در وضعیت فعلی منفی خواهد بود. تفاوت رفتار انسان و هوش مصنوعی در شبیه سازی بحران نظامی بین آمریکا و چین کارشناسان ابتکار سیاست و استراتژی جهانی مؤسسه مطالعاتی هوور (Hoover Institution)، طی پژوهشی، یک بازی جنگی (Wargame) برای شبیه سازی بحران احتمالی میان ایالات متحده و چین در تنگه تایوان طراحی کردند. این شبیه سازی با هدف مقایسه رفتار و تصمیم گیری انسان ها با هوش مصنوعی در موقعیت های بحرانی و پرتنش صورت گرفت. این مطالعه که با مشارکت ۲۱۴ کارشناس امنیت ملی و استفاده از مدلهای زبان بزرگ انجام شد، توانست تفاوت های عمده ای بین تصمیم گیری های انسان و هوش مصنوعی را آشکار کند. در این شبیه سازی، دو تیم مجزا از انسان ها و هوش مصنوعی وارد یک بحران فرضی بین آمریکا و چین در تنگه تایوان شدند. شرایط بحران شامل تحریکات نظامی چین و حضور نیروی دریایی آمریکا در منطقه بود. هر دو تیم موظف بودند به عنوان اعضاء شورای امنیت ملی آمریکا تصمیماتی را اتخاذ کنند که در نهایت باید به رییس جمهور ارائه می شد. سناریوی این شبیه سازی شامل دو مرحله بود: مرحله اول: در این مرحله، تیم ها باید درباره ی استفاده یا عدم استفاده از یک سیستم تسلیحاتی مبتنی بر هوش مصنوعی که بتازگی به خدمت گرفته شده بود، تصمیم گیری می کردند. این سیستم می توانست بصورت خودکار به اهداف شلیک کند و امکان کنترل دستی نیز برای آن فراهم شده بود. مرحله دوم: بعد از استفاده از این سیستم توسط رییس جمهور و بروز یک خطا که منجر به تلفات انسانی در نیروهای دریایی چین می شد، تیم ها باید درباره ی پاسخ آمریکا به این اتفاق تصمیم گیری می کردند. نتایج و تفاوت ها در تصمیمات یکی از یافته های کلیدی این مطالعه، تمایل بیشتر هوش مصنوعی به اقدامات تهاجمی بود. در صورتیکه تیم های انسانی با در نظر گرفتن جنبه های سیاسی، اخلاقی و انسانی، به طور معمول تصمیمات محتاطانه تری اتخاذ می کردند، هوش مصنوعی گرایش بیشتری به استفاده از تسلیحات و تشدید تنش داشتند. بطور خاص: در مرحله اول: هوش مصنوعی تمایل بیشتری به استفاده از سیستم تسلیحاتی خودکار و آفند داشت، در صورتیکه انسان ها بیشتر به گزینه های دفاعی و شلیک تنها در صورت لزوم تمایل نشان دادند. در مرحله دوم: هرچند هر دو تیم بدنبال جلوگیری از تشدید تنش بودند، اما تیم های شبیه سازی شده توسط هوش مصنوعی بیشتر به سمت افزایش تولید داخلی تسلیحات و آماده سازی برای اقدامات نظامی پیشگیرانه گرایش داشتند. این مطالعه همین طور نشان داد که هوش مصنوعی نمی تواند تعاملات انسانی و پیچیدگی های اخلاقی را به درستی شبیه سازی کند. به عنوان مثال، در شبیه سازی تیم های انسانی، بحث ها و مذاکرات میان اعضا تأثیر مهمی در تصمیم گیری ها داشت، در صورتیکه هوش مصنوعی تمایل داشت نظرات موافق را به گونه ای غیرواقعی و بدون اختلاف نظر بیان کند؛ امری که به تصمیماتی هماهنگ اما غیرارگانیک منجر می شد. از همین روی، می توان اظهار داشت که مطالعه موردی شبیه سازی بحران بین آمریکا و چین نیز مؤید آنست که هرچند هوش مصنوعی در وضعیت بحرانی می تواند به سرعت و با دقت تصمیمات عملیاتی بگیرد، اما در تحلیل مسائل پیچیده انسانی و اخلاقی گرفتار ضعف شدید می باشد. همچنین، تمایل بیشتر هوش مصنوعی به تصمیمات تهاجمی می تواند در وضعیت واقعی منجر به تشدید تنش ها و حتی گسترش درگیری های نظامی شود. متخصصان در جریان این پژوهش نتیجه گرفتند که نتایج به دست آمده، بر اهمیت نظارت و کنترل انسانی بر تصمیمات هوش مصنوعی در موقعیت های حساس تاکید دارد. سخن پایانی در نهایت، می توان چنین استنباط کرد که قضاوت های هوش مصنوعی و انسان هر یک نقاط قوت و ضعف خاص خودرا دارند و باید با دقت و هوشمندی از هر دو در موقعیت های مناسب استفاده کرد. همانطور که ذکر شد، هوش مصنوعی قادر می باشد با سرعت بالا و بدون تأثیر از عوامل احساسی یا روانی، داده های عظیم را تحلیل کرده و به تصمیم گیری های دقیق برسد. این توانایی خصوصاً در موقعیت های نیازمند پردازش سریع و کارآمد اطلاعات، بسیار باارزش است. از طرف دیگر، انسان ها توانایی منحصربه فردی در درک شرایط پیچیده، توجه به مسائل اخلاقی و اجتماعی و در نظر گرفتن ارزش ها و احساسات انسانی دارند. این خاصیت ها می تواند در تصمیم گیری هایی که نیازمند ظرافت های انسانی و درک عوامل فرهنگی و اجتماعی هستند، نقش مؤثری ایفا کند. از همین روی، استفاده از هوش مصنوعی به تنهایی در تصمیم گیری های حیاتی و بحرانی می تواند خطرناک باشد، برای اینکه این فناوری هنوز نمی تواند و شاید هیچ گاه نیز نتواند همه جنبه های انسانی و احساسی را به درستی درک و پردازش کند. در مقابل، کارشناسان معتقدند که ترکیب توانایی های تحلیلی و سرعت پردازش هوش مصنوعی با تجربه و درک انسانی می تواند بهترین نتایج را به همراه داشته باشد. برای این منظور، باید از هوش مصنوعی به عنوان ابزاری مکمل در کنار انسان ها بهره برد نه به عنوان جایگزینی کامل. همچنین، باید به محدودیت های هوش مصنوعی آگاه بود و از تصمیم گیری های خودکار در موقعیت هایی که مسائل اخلاقی و انسانی در اولویت هستند، جلوگیری کرد. به این ترتیب، می توان با بهره بردن از هر دو منبع، فرآیندهای تصمیم گیری را بهینه سازی کرده و ریسک های احتمالی را در وضعیت بحرانی و حساس به حداقل رساند.

1403/07/28
12:11:03
5.0 / 5
190
تگهای خبر: آمریكا , تخصص , توسعه , سیستم
این مطلب را می پسندید؟
(1)
(0)
X

تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
لطفا شما هم نظر دهید
= ۱ بعلاوه ۳
میخواهید برنامه ای برای شما نوشته شود؟ سفارش توسعه نرم افزار


pcdevelopers.ir - مالکیت معنوی سایت توسعه دهندگان متعلق به مالکین آن می باشد