ابزار رونویسی Whisper ساخت OpenAI در بسیاری از بیمارستانهای آمریکا استفاده میشود و گاه اطلاعاتی را به متن اضافه میکند که در واقعیت بیان نشدهاند.
شرکت Nabla از ابزار هوش مصنوعی Whisper جهت رونویسی مکالمات پزشکی استفاده میکند. طبق گزارش ABC، این ابزار تاکنون حدود هفت میلیون مکالمهی پزشکی را رونویسی کرده و بیش از ۳۰ هزار پزشک و ۴۰ سیستم بهداشتی از آن بهرهمند شدهاند. Nabla به چالش تولید اطلاعات نادرست توسط Whisper واقف است و روی رفع مشکلات کار میکند.
گروهی از پژوهشگران دانشگاه کرنل، دانشگاه واشنگتن و سایر موسسات در مطالعه ای دریافتند که مدل زبانی Whisper در حدود یک درصد از رونویسیها دچار توهم میشود و جملات کاملی را با احساسات گاه خشونتآمیز یا عبارات بیمعنی در خلال سکوتهای ضبطشده، ایجاد میکند.
پژوهشگران که نمونههای صوتی را از بانک اطلاعات AphasiaBank وبسایت TalkBank جمعآوری کردهاند، میگویند که سکوت بهویژه در هنگام صحبت افرادی که به اختلال زبانی آفازی مبتلا هستند، رایج است.
پژوهشگران دریافتند که Whisper، توهماتی از جمله اختراع بیماریهای پزشکی یا عباراتی که معمولاً در ویدیوهای پلتفرمهای اشتراکگذاری ویدیو مانند یوتیوب به کار میرود، تولید میکند. OpenAI برای آموزش مدل زبانی GPT-4 از بیش از یک میلیون ساعت ویدیو در یوتیوب بهره برده است./زومیت
منبع خبر: سالم خبر / رونویسی وضعیت بیمار با هوش مصنوعی در بیمارستانهای امریکا دچار خطا میشوند
گردآوری و انتشار اخبار در این تارنما با هوش مصنوعی و ابزار های الکترونیکی اتوماتیک صورت می پذیرد و تمامی حقوق گردآوری و تالیف خبر متعلق به ناشر اصلی آن که در لینک فوق به آن اشاره شده است می باشد. در صورت نیاز به ارسال جوابیه یا توضیح تکمیلی علیه یا له مطلب منتشر شده صرفا از طریق مرجع اصلی خبر اقدام نمایید.
نظرات کاربران