چارچوب سه لایه تعاملی اخلاق،پایداری،حکمرانی هوشمند برای مدیریت استراتژیک هوش مصنوعی
کد مقاله : 1604-ICM
نویسندگان
کیمیا رمازی *
گروه الاهیات_دانشکده الاهیات_رشته علوم قرآن وحدیث_دانشگاه میبد_یزد_ایران
چکیده مقاله
زمینه و اهمیت موضوع: گسترش هوش مصنوعی فرصت‌هایی برای نوآوری ایجاد کرده، اما چالش‌های اخلاقی، زیست‌محیطی و حکمرانی به همراه دارد. نبود چارچوب‌های جامع می‌تواند اعتماد عمومی را کاهش دهد و پیامدهای منفی داشته باشد. بنابراین، بررسی مدل‌های مدیریتی مسئولانه برای این فناوری ضرورتی علمی و عملی است.

هدف پژوهش: این پژوهش با هدف ارائه مدلی برای مدیریت استراتژیک هوش مصنوعی طراحی شده است. تمرکز اصلی بر پیوند ارزش‌های اخلاقی با سیاست‌های اجرایی و اقدامات عملیاتی است.هدف نهایی، ارائه الگویی است که از نظر نظری و کاربردی مسیر توسعه پایدار و مسئولانه را روشن کند.

روش پژوهش: روش پژوهش مبتنی بر تحلیل اسناد سیاستی، گزارش‌های سازمان‌ها و نمونه‌های عملی بوده است. داده‌ها از منابعی چون قانون AI Act اتحادیه اروپا، سیاست‌های ژاپن و گزارش‌های پایداری شرکت‌های فناوری استخراج شدند. این رویکرد امکان مقایسه ابعاد هنجاری، تصمیمی و عملیاتی را فراهم کرد.

یافته‌ها: یافته‌ها نشان داد که سه لایه هنجاری، تصمیمی و عملیاتی با یکدیگر تعامل دارند. مدیریت استراتژیک نقش حلقه اتصال این لایه‌ها را ایفا کرده و ارزش‌های اخلاقی را به سیاست‌ها و اقدامات عملیاتی پیوند می‌دهد. نمونه‌ها نشان داد که این مدل قابلیت اجرا دارد و می‌تواند اعتماد عمومی را تقویت کند.

ارزش افزوده پژوهش: مزیت این پژوهش، تلفیق سه بعد کلیدی و ارائه تصویری یکپارچه از حکمرانی هوش مصنوعی است. درحالی‌که مطالعات پیشین بر ابعاد خاصی متمرکز بودند، این مطالعه مدلی جامع و کاربردی ارائه کرد. بنابراین پژوهش حاضر شکاف موجود در ادبیات را پر کرده و الگویی عملی برای توسعه مسئولانه هوش مصنوعی فراهم آورده است.
کلیدواژه ها
حکمرانی هوش مصنوعی، هوش مصنوعی مسئول، اخلاق هوش مصنوعی، پایداری هوش مصنوعی ،مدیریت استراتژیک هوش مصنوعی
وضعیت: پذیرفته شده برای ارسال فایل های ارائه پوستر