کد خبر: ۳۶۳۱۴۷
تاریخ انتشار: ۱۴:۰۰ - ۰۵ تير ۱۴۰۴ - 2025June 26

چت‌بات‌ها، کارخانه اخبار جعلی پزشکی

 تیمی از پژوهشگران دانشگاه فلیندرز استرالیا با بررسی عملکرد پنج مدل زبانی پیشرفته شامل GPT-۴o، Gemini ۱.۵ Pro، Claude ۳.۵ Sonnet، LLaMA ۳.۲، ۹۰B Vision و Grok Beta، نقاط ضعف قابل توجهی را در سامانه‌های ایمنی این ابزار‌ها شناسایی کردند.

شفاانلاین»سلامت نتایج یک پژوهش تازه نشان می‌دهد که سامانه‌های هوش مصنوعی گفت‌وگومحور، مانند چت‌بات‌ها، هنوز قادر به جلوگیری مؤثر از انتشار اخبار جعلی در حوزه سلامت نیستند. 

به گزارش شفاآنلاین تیمی از پژوهشگران دانشگاه فلیندرز استرالیا با بررسی عملکرد پنج مدل زبانی پیشرفته شامل GPT-۴o، Gemini ۱.۵ Pro، Claude ۳.۵ Sonnet، LLaMA ۳.۲، ۹۰B Vision و Grok Beta، نقاط ضعف قابل توجهی را در سامانه‌های ایمنی این ابزار‌ها شناسایی کردند.

در این مطالعه، چت‌بات‌های سفارشی‌شده با دستورالعمل‌هایی خاص طراحی شدند تا به‌صورت سیستماتیک به تولید پاسخ‌های نادرست درباره موضوعات حساس سلامت از جمله ایمنی واکسن‌ها، اچ‌آی‌وی و افسردگی بپردازند. این پاسخ‌ها نه‌تنها شامل اطلاعات جعلی بودند، بلکه با ارجاعات ساختگی به منابع علمی و لحن آمرانه، سعی در معتبر جلوه‌دادن محتوا داشتند.

نتایج آزمایش‌ها نشان داد که ۸۸ درصد از پاسخ‌هایی که این چت‌بات‌ها ارائه دادند، حاوی اطلاعات نادرست بودند. در این میان، GPT-۴o، Gemini، LLaMA و Grok بیشترین میزان اخبار جعلی را تولید کردند. تنها Claude ۳.۵ Sonnet عملکرد ایمن‌تری داشت و توانست نرخ انتشار اطلاعات جعلی را به ۴۰ درصد کاهش دهد.

این یافته‌ها نگرانی‌ها درباره آسیب‌پذیری هوش مصنوعی در برابر سوءاستفاده برای نشر اطلاعات نادرست را تشدید کرده و اهمیت توسعه بیشتر سامانه‌های ایمنی و نظارتی را برجسته می‌سازد.

برچسب ها: چت بات ها
نظرات بینندگان