ChatGPT دکتر نیست/ مردی که با عمل به توصیه هوش مصنوعی 3 ماه بستری شد!دکتر مک لین خاطرنشان کرد که ربات های هوش مصنوعی مولد در حال حاضر تحت پوشش قوانین حفظ حریم خصوصی سلامت مانند HIPAA نیستند. اطلاعات سلامت شخصی خود را وارد نکنید. - ChatGPT دکتر نیست/ مردی که با عمل به توصیه هوش مصنوعی 3 ماه بستری شد! دکتر مک لین خاطرنشان کرد که ربات های هوش مصنوعی مولد در حال حاضر تحت پوشش قوانین حفظ حریم خصوصی سلامت مانند HIPAA نیستند. اطلاعات سلامت شخصی خود را وارد نکنید. عصر ایران - مردی 60 ساله پس از مشورت با چت جی پی تی (ChatGPT)، نمک خوراکی خود را با برومید سدیم جایگزین کرد؛ اقدامی که منجر به مسمومیت با برومید و بستری شدن سه هفته ای در بخش روانپزشکی شد. این مورد، خطرات بالقوه تکیه بر ربات های چت هوش مصنوعی برای دریافت توصیه های سلامتی را برجسته می کند. با این حال، طبق یک نظرسنجی اخیر، بیشتر آمریکایی ها اطلاعات سلامت تولید شده توسط هوش مصنوعی را تا حدی قابل اعتماد می دانند . کارشناسان هشدار می دهند که ابزارهای هوش مصنوعی هرگز نباید جایگزین مراقبت های پزشکی حرفه ای شوند. ربات های چت هوش مصنوعی سوابق پزشکی شما را ندارند ربات های چت هوش مصنوعی سوابق سلامت شخصی شما را در اختیار ندارند، از این رو نمی توانند در مورد علائم جدید، شرایط موجود شما، یا نیازتان به مراقبت های اورژانسی، راهنمایی قابل اعتمادی ارائه دهند. برچسب ها: هوش مصنوعی - مصنوعی - سلامت - اطلاعات - حریم خصوصی - دکتر - توصیه |
آخرین اخبار سرویس: |