مدرس و پژوهشگر عرصه رسانه مطرح کرد:
سواد رسانهای ابزار مصونماندن مقابل آسیبهای تکنولوژی
به گزارش خبرنگار اجتماعی پایگاه خبری تحلیلی سیفار به نقل از «مرصاد»، نوید کمالی شامگاه پنجشنبه در نشست آنلاین در پیامرسان روبیکا تحت عنوان «هوش مصنوعی و مصرف سواد رسانهای» اظهار داشت: به بیان ساده، هوش مصنوعی به توانایی ماشینها در شبیهسازی رفتارهای انسانی مانند یادگیری، استدلال، تصمیمگیری، درک زبان و خلاقیت اشاره دارد؛ این ویژگیها که بهتدریج توسعه یافتهاند، اکنون به ماشینها امکان میدهند رفتارهای انسانی را شبیهسازی کنند.
مدرس و پژوهشگر عرصه رسانه و سیاست خارجی افزود: تا پیش از دو سال اخیر و معرفی هوشهای مولد، ماشینها تنها تواناییهای محدودی در شبیهسازی رفتارهای انسانی داشتند، نمونههای اولیه این فناوری شامل دستیار صوتی کورتانا در ویندوز و سیری در آیفون بود که به کاربران اجازه میدادند با صحبت کردن، دستوراتی را به این دستیارهای هوشمند بدهند، اما این هوشهای مصنوعی به اصطلاح «محدود» یا «نرو» بودند، با توسعه فناوری و رونمایی از مدلهای جدید مانند ChatGPT، ما را به مرحلهای از هوش مصنوعی عمومی یا «هوش مصنوعی مولد» رسانده است.
وی تصریح کرد: هوش مصنوعی مولد علاوه بر شبیهسازی رفتارهای انسانی، توانایی تولید محتوای منحصر بهفرد را دارد، این پیشرفتها تأثیرات شگرفی بر حوزههای مختلف، از جمله: حقوق، پزشکی، آموزش و تولید محتوا داشته است و برآورد میشود که در آینده بسیاری از مشاغل دستخوش تغییرات اساسی شوند، بهعنوان مثال، در حوزه حقوق، دسترسی سریع به قوانین و تنظیم اوراق حقوقی از طریق هوش مصنوعی امکانپذیر شده است و حتی در آیندهای نزدیک ممکن است این هوشها به وکالت در دادگاه نیز بپردازند.
کمالی بیان داشت: تحولات مشابهی در سایر حوزهها نیز مشاهده میشود؛ برای مثال، تولید محتوا و خلق آثار هنری که زمانی مستلزم صرف زمان و هزینه زیاد بود، اکنون توسط هوش مصنوعی در کسری از زمان انجام میشود، این روند میتواند تأثیرات عمیقی بر آینده شغلی بسیاری از افراد داشته باشد و ما نیز باید در ایران به این تغییرات توجه کرده و مسیر آموزش و مهارتآموزی خود را بر این اساس تنظیم کنیم.
مدرس و پژوهشگر عرصه رسانه و سیاست خارجی بیان کرد: در عصر اطلاعات، تولید و اشتراکگذاری محتوا با سرعت بالایی انجام میشود و میلیونها نفر در سراسر جهان به راحتی به این محتواها دسترسی دارند، اما مسئله اینجاست که هوش انسانی نمیتواند این حجم از دادهها را بهسرعت و بهدقت پردازش کند، به همین دلیل، هوش مصنوعی و الگوریتمهای پیشرفته به کار گرفته میشوند تا تحلیل و تفسیر این حجم عظیم از اطلاعات را بر عهده بگیرند.
وی خاطرنشان کرد: این الگوریتمها به صاحبان پلتفرمها و سیاستگذاران این امکان را میدهند که رفتارهای کاربران را تحلیل کرده و بر اساس آن، محتوای متناسب با علایق آنها را نمایش دهند، این فرآیند که به «فیلتر حبابی» مشهور است، به کاربران فقط آن دسته از محتواهایی را نمایش میدهد که با دیدگاهها و تمایلات آنها همخوانی دارد، فیلتر حبابی موجب تقویت سوگیریهای شناختی افراد و کاهش مواجهه آنها با دیدگاههای مخالف میشود، این وضعیت در نهایت به قطبیسازی و افزایش افراطگرایی در جوامع منجر میشود، چرا که افراد تصور میکنند دیدگاههای آنها غالب و پذیرفته شده است.
کمالی گفت: در چنین فضایی، سواد رسانهای میتواند نقش مهمی ایفا کند، سواد رسانهای مجموعهای از مهارتها و دانش است که به ما کمک میکند نسبت به رسانهها و پیامهای آنها دیدگاه انتقادی داشته باشیم، این مهارت به ما این امکان را میدهد که در مواجهه با محتواهای رسانهای بهراحتی تحت تأثیر قرار نگیریم و هر پیامی را پیش از پذیرش، مورد نقد و تحلیل قرار دهیم.
مدرس و پژوهشگر عرصه رسانه و سیاست خارجی اذعان کرد: در دنیای امروز، شناخت ابزارهای هوش مصنوعی و توانایی استفاده از آنها بسیار ضروری است، ما باید به این موضوع واقف باشیم که هر تصویری یا محتوایی که در فضای مجازی میبینیم، لزوماً حقیقی نیست، دیپفیکها و محتواهای جعلی بهراحتی تولید و به اشتراک گذاشته میشوند و ما باید با یادگیری روشهای تشخیص آنها از آسیبهای ناشی از این تکنولوژیها در امان بمانیم.
وی در پایان گفت: بهطور خلاصه، اگر میخواهیم از آسیبهای ناشی از این تغییرات در امان باشیم و از فضای رسانهای جدید بهرهبرداری مؤثر داشته باشیم، باید به سواد رسانهای و ابزارهای نوین شناختی مسلح شویم، فیلترهای حبابی را شناسایی کنیم و در جستجوی منابع مختلف برای دریافت اخبار و اطلاعات باشیم تا دچار سوگیریهای شناختی نشویم.
انتهای خبر/ س
برچسب ها :
ناموجود- نظرات ارسال شده توسط شما، پس از تایید توسط مدیران سایت منتشر خواهد شد.
- نظراتی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
- نظراتی که به غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نخواهد شد.
ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : ۰