خبرگزاری حوزه / با پیشرفت روزافزون فناوریهای هوش مصنوعی، ابزارهای تولید و دوبله ویدیو با صدای شبیهسازیشده به سرعت در حال گسترش هستند. این فناوریها میتوانند صدای افراد مشهور را به هر زبانی بازتولید کنند، بهطوریکه حتی متخصصان نیز به سختی قادر به تشخیص نسخه واقعی از نمونه جعلی خواهند بود. نمونه اخیر این پدیده، ویدیویی است که در آن سخنرانی شهید سید حسن نصرالله دبیرکل حزبالله لبنان به زبان انگلیسی و با صدایی کاملاً شبیه به صدای اصلی منتشر شده است؛ ویدیویی که با کمک هوش مصنوعی تولید شده و در شبکههای اجتماعی بازتاب گستردهای داشته است.
کارشناسان حوزه فناوری و رسانه هشدار میدهند که این ابزارها، علاوه بر مزایای متعدد، میتوانند مورد سوءاستفاده قرار گیرند. به عنوان مثال، امکان ساخت ویدیوهایی وجود دارد که در آن شخصیتهای شناختهشده، جملات و اظهاراتی را بیان میکنند که هرگز نگفتهاند. این موضوع میتواند به سادگی زمینهساز انتشار اخبار جعلی و تشویش اذهان عمومی شود و حتی باعث بروز بحرانهای اجتماعی و سیاسی گردد.
در شرایطی که فناوریهای هوش مصنوعی روز به روز دقیقتر و در دسترستر میشوند، کارشناسان بر لزوم افزایش سواد رسانهای و آگاهی عمومی تأکید دارند. آنان معتقدند تنها راه مقابله با تهدیدهای ناشی از محتوای جعلی، آموزش و اطلاعرسانی گسترده به مردم و توسعه ابزارهای تشخیص محتوای واقعی از نمونههای ساختگی است. در غیر این صورت، اثبات جعلی بودن یک ویدیو یا فایل صوتی برای افکار عمومی بسیار دشوار خواهد بود و اعتماد عمومی به شدت آسیب خواهد دید.










نظر شما