بابک نگاهداری: هوش مصنوعی امکان تحقق شرافت اخلاقی در رسانه را فراهم می‌کند

بابک نگاهداری در سومین همایش «هوش‌مصنوعی و رسانه با محوریت حکمرانی رسانه در عصر هوش‌مصنوعی» عنوان کرد: هوش مصنوعی با ایجاد ظرفیت در شناخت اخبار جعلی، امکان تحقق شرافت اخلاقی در رسانه‌ها را فراهم می‌کند.

کد خبر : 1268750

بابک نگاهداری، رئیس مرکز پژوهش‌های مجلس شورای اسلامی در سومین همایش «هوش‌مصنوعی و رسانه با محوریت حکمرانی رسانه در عصر هوش‌مصنوعی» که امروز (دوشنبه 25 دی‌ماه) برگزار شد، با اشاره به ظرفیت‌ها و چالش‌های هوش‌مصنوعی، اظهار کرد: برای مواجهه و به‌کارگیری هوش‌مصنوعی باید تدابیر سنجیده و پیشگیرانه را به کار بگیریم.

رئیس مرکز پژوهش‌های مجلس به مخاطرات هوش‌مصنوعی اشاره و تصریح ‌کرد: با توجه به اینکه هوش‌مصنوعی، ابزاری داده‌مبنا بوده و می‌تواند الگوریتم‌سازی کند، یادگیری و پیش‌بینی را امکان‌پذیر می‌کند.

نگاهداری با اشاره به اینکه انبوه زیادی داده در زندگی انسان‌ها وجود دارد، گفت: این داده‌ها با قابلیت‌هایی که هوش‌مصنوعی دارد، می‌تواند نظام حکمرانی را در راستای ارتقای کارآمدی، تغییر دهد.

اثرگذاری هوش‌مصنوعی در همه سطوح نظام حکمرانی

 رئیس مرکز پژوهش‌های مجلس با اعلام اینکه به‌کارگیری هوش‌مصنوعی باعث افزایش بهره‌وری، کیفیت و سرعت در عرصه خدمات خصوصی نیز می‌شود و در واقع همه سطوح نظام حکمرانی تحت‌تأثیر این ابزار قرار خواهد گرفت، اضافه کرد: تقریباً همه کشورها به‌نحوی با هوش‌مصنوعی ارتباط برقرار کرده‌اند، برخی به‌طور کلی آن را انکار و برخی دیگر بیشتر امور خود را به آن سپرده‌اند. در کشور ما نیز در چند سال اخیر فعالیت‌هایی در این زمینه انجام شده که نظام حکمرانی ما را تحت‌تأثیر قرار داده است.

نگاهداری با ارائه آماری در خصوص پرداختن به هوش‌مصنوعی در دانشگاه‌ها و پژوهشگاه‌ها، افزود: ۱۷۲ دانشجوی دوره دکتری و ۱۳۵۸ دانشجوی کارشناسی‌ارشد تاکنون در عرصه هوش‌مصنوعی فعالیت کرده‌اند یا آموزش‌ دیده‌اند. همچنین ۴۵۲ شرکت دانش‌بنیان و ۶ پژوهشگاه یا پژوهشکده به‌طور مستقیم از هوش‌مصنوعی استفاده می‌کنند. بنابراین نیروی انسانی توانمندی در زمینه به‌کارگیری این ابزار در کشور تربیت شده ‌است.

 مشارکت مرکز پژوهش‌های مجلس در ایجاد قوانین هوش‌مصنوعی

وی به قوانین مصوب شده از سوی مجلس در زمینه هوش‌مصنوعی اشاره کرد و گفت: همچنین نهادهایی مانند شورای عالی انقلاب فرهنگی، نهاد ریاست جمهوری و... بخشی از زیربنای تقنین و اجرایی برای به‌کارگیری هوش‌مصنوعی را ایجاد کرده‌اند.

نگاهداری تصریح‌ کرد: بنابراین اگر اراده حکمرانی کشور به ‌سمت به‌کارگیری هوش‌مصنوعی حرکت کند، شرایط استفاده از آن از نظر تقنین، نیروی انسانی متخصص و زیرساخت فنی، تا حدودی آماده شده‌است.

وی به چالش‌های ناشی از توسعه فناوری هوش‌مصنوعی در عرصه‌های مختلف اجتماع اشاره کرد و گفت: هوش‌مصنوعی در حوزه کسب و کار، در زمینه شکاف‌های دیجیتالی ناشی از دسترسی به داده، شفافیت و مشارکت بیشتر مردم در عرصه سیاست، اثرگذار خواهد بود.

رئیس مرکز پژوهش‌های مجلس با اشاره به تدوین و انتشار ۱۲ یا ۱۳ گزارش تخصصی در این مرکز در حوزه هوش‌مصنوعی، گفت: آخرین گزارش با عنوان نگاشت نهادی و تقسیم‌کار ملی در حوزه توسعه هوش‌مصنوعی و حکمرانی داده‌محور بوده است. همچنین باتوجه به اینکه در لایحه برنامه هفتم توسعه، بخشی به هوش‌مصنوعی اختصاص نیافته بود، ما پیشنهاد ایجاد موادی در این برنامه در خصوص این ابزار به کمیسیون تلفیق ارائه دادیم که در برنامه هفتم گنجانده شد.

ضرورت شفافیت الگوریتم‌های هوش‌مصنوعی

نگاهداری با بیان اینکه نیاز است در حوزه رسانه، هوش‌مصنوعی در نظام تقنین و مقررات تمرکز بیشتری داشته ‌باشیم، اضافه کرد: در قوانین جدید باید به تضمین شفافیت الگوریتم‌های هوش‌مصنوعی را در عرصه رسانه مورد توجه قرار دهیم. تصمیمات در این زمینه به انتشار و دسترسی به اطلاعات با عدالت و بدون تبعیض ارتباط دارد.

وی در ادامه به مسئولیت رسانه‌ها درباره عملکرد هوش‌مصنوعی اشاره کرد و افزود: ممکن است در به‌کارگیری هوش‌مصنوعی در رسانه، اشتباهاتی رخ دهد که برای جبران خسارت و عمل به تعهدات از سوی رسانه‌ها، باید برنامه‌ریزی صورت گیرد.

رئیس مرکز پژوهش‌های مجلس ادامه‌ داد: یکی از چالش‌های مهم هوش‌مصنوعی، نحوه حفظ حریم خصوصی و جلوگیری از استفاده ناخواسته از داده‌های شخصی است. همچنین باید بتوانیم بین مصالح مختلف افراد، آزادی بیان، هویت فرهنگی، حقوق مالکیت فکری و... تعادل برقرار کنیم.

اهمیت حضور بین‌المللی ایران در هوش‌مصنوعی

نگاهداری با تاکید بر اینکه ضرورت دارد با کشورهای مختلف در زمینه استفاده از هوش‌مصنوعی وارد تعامل شویم، گفت: پیشنهاد ما این است که جمهوری اسلامی ایران در کنسرسیوم‌ها و اجلاس‌های بین‌المللی حضور جدی داشته ‌باشد تا بتوانیم منافع کشورمان را در این حوزه حفظ کنیم.

 نگاهداری در ادامه به مخاطرات هوش‌مصنوعی در عرصه رسانه اشاره کرد و گفت: هوش‌مصنوعی از الگوریتم‌های ریاضی و آماری استفاده می‌کند؛ درحالی‌که تحلیل محتوا در رسانه باید با درک از مفاهیم انسانی باشد. از سوی دیگر آموزش و تمرین مدل‌های هوش‌مصنوعی نیاز به داده‌های وسیع دارد که محدودیت دسترسی به اطلاعات شخصی و خصوصی در این زمینه چالش‌هایی را ایجاد می‌کند.

وی افزود: چالش دیگر در به‌کارگیری هوش‌مصنوعی در عرصه رسانه، مداخلات در تحقیقات رسانه‌ای است؛ بنابراین باید قوانین حریم خصوصی، مالکیت فکری و انتشار محتوا در این زمینه به ‌درستی رعایت شود.

هوش‌مصنوعی و صیانت از شرافت رسانه‌ای

رئیس مرکز پژوهش‌های مجلس با تأکید بر اینکه باید نگاه تسهیل‌گر و نوآورانه در عرصه هوش‌مصنوعی داشته‌باشیم، گفت: این ابزار امکاناتی نظیر شناسایی اخبار جعلی و جامعیت بخشی به اطلاعات صحیح را در اختیار رسانه‌ها قرار می‌دهد که ظرفیت قابل توجهی در تحقق شرافت اخلاقی است.

نگاهداری ادامه ‌داد: صیانت از شرافت‌های اخلاقی در هر حوزه‌ای اهمیت دارد. در حوزه رسانه نیز زمانی می‌توان شرافت رسانه را حفظ کرد که اطلاعات صحیح را در اختیار مردم قرار دهیم.

وی تأکید کرد: نوع و جنس تدبیر ما باید در راستای حفظ شرافت باشد چراکه هر کاری با شرافت زیباست./خانه ملت

لینک کوتاه :

با دوستان خود به اشتراک بگذارید: