מידעהצהרת נגישות
תצוגת צבעים באתר(* פועל בדפדפנים מתקדמים מסוג chrome ו- firefox)תצוגה רגילהמותאם לעיוורי צבעיםמותאם לכבדי ראייהא+ 100%א-סגירה

תרופות ורוקחות

מנהלי קהילה

ליאת נסים
ליאת נסים
רוקחת קלינית בקופ"ח מאוחדת תואר ראשון בביולוגיה תואר שני ברוקחות קלינית וניהול רגולטורי
רוקחים קליניים- אוני
רוקחים קליניים- אוני
כל המשיבים הינם רוקחים מוסמכים הלומדים בבית הספר לרוקחות של אוניברסיטת בן-גוריון, במסלול לתואר שני ייחודי לרוקחות קלינית קהילתית וניהול רגולטורי (MSc) של בית הספר לרוקחות באוניברסיטת בן גוריון. המענה ניתן על ידי רוקחים מוסמכים במסגרת שיתוף פעולה ייחודי בין "כמוני", לבית הספר לרוקחות שבאוניברסיטת בן גוריון וזאת כחלק מקורס ייעוץ רוקחי תרופתי מתקדם, המקנה בין היתר מיומנויות מעמיקות בייעוץ ותשאול רוקחי ובמתן מענה לבעיות הקשורות בטיפול התרופתי, את הקורס מרכזים ומנהלים פרופ' איל שורצברג וד"ר אורלי שמעוני. .
כמוניתרופות ורוקחותחדשותצ'אט GPT מספק מידע שגוי על תרופות, וזה עלול לסכן את הבריאות

צ'אט GPT מספק מידע שגוי על תרופות, וזה עלול לסכן את הבריאות

לא לסמוך על זה: חוקרים מצאו כי התשובות של צ'אט GPT לכמעט שלוש מכל ארבע שאלות בנוגע לתרופות היו שגויות או לא שלמות


(צילום: shutterstock)
(צילום: shutterstock)

מאז כניסתו לחיינו לפני כשנה, צ'אט GPT (ChatGPT) הפך עבור רבים למקור מידע מרכזי, ובחלק מהמקרים גם מקור למידע רפואי. כעת מתפרסם מחקר חדש שמראה כי לא ניתן להסתמך על הצ'אטבוט בנושאים אלו.

 

חוקרים מאוניברסיטת לונג איילנד שאלו את הגרסה החינמית הפתוחה של צ'אט GPT – הצ'אטבוט שמבוסס בינה מלאכותית – 39 שאלות הקשורות לתרופות. כל השאלות היו שאלות אמיתיות שנשאלו בשירות המידע התרופתי של האוניברסיטה. התשובות של הצ'אטבוט הושוו לתגובות שנכתבו ונבדקו על ידי רוקחים.

 

ניתוח הממצאים העלה כי צ'אט GPT סיפק תגובות מדויקות רק לכעשר מהשאלות, כרבע מהשאלות שנשאלו. 29 השאלות האחרות זכו לתשובות לא מדויקות או לא שלמות ואפילו לכאלו שלא ענו על השאלה שנשאלה. חלק מהתשובות היו עלולות לסכן את המטופלים.

 

מקורות מפוברקים

 

לדוגמה, החוקרים שאלו את הצ'אטבוט אם התרופה האנטי-ויראלית פקסלוביד שמשמשת לטיפול בחולי קורונה שמצויים בסיכון גבוה להידרדרות במצבם הבריאותי עלולה ליצור אינטראקציות עם התרופה להפחתת לחץ הדם ורפמיל. התשובה של צ'אט GPT הייתה כי בנטילת שתי התרופות יחד אין סיכון לתופעות לוואי.

 

במציאות, אנשים שנוטלים את שתי התרופות יחד עלולים לחוות צניחה גדולה בלחץ הדם שעשויה להתבטא בסחרחורות והתעלפות. החוקרים שהציגו את ממצאיהם בכנס השנתי של החברה האמריקנית לרוקחות במערכות בריאות, הסבירו כי למטופלים שנוטלים את שתי התרופות הללו יחד פעמים רבות רופאים יוצרים תוכניות מותאמות ספיציפית ומזהירים מפני קימה מהירה עמידה מישיבה.

 

לדבריהם, במקרה של שילוב התרופות הללו ההנחיות שהתקבלו מהצ'אטבוט יכולות להעמיד מטופלים בסיכון, וכך גם במקרים נוספים, למשל תשובות לשאלות בהן התוכנה סיפקה יחסי המרה ומינונים לא נכונים של תרופות.

 

כאשר החוקרים ביקשו מהצ'אטבוט מקורות מדעיים עליהם מסתמכות התשובות שלו הם הופתעו לגלות כי התוכנה יכלה לספק להם מקורות רק לשמונה מהשאלות שהשיב עליהן. הם עוד יותר הופתעו לגלות שבכל אחד מאותן שמונה השאלות שבהן הועיל בטובו לספק מקורות מדעיים - צ'אט GPT סיפק מקורות מפוברקים. במבט ראשון המקורות נראו לגיטימיים – הם נכתבו בפורמט הראוי והופיעו תחת שמות של כתבי עת מדעיים מוכרים, אבל כאשר צוות החוקרים ניסה לאתר את המאמרים שהיוו מקורות, הם גילו שמדובר במקורות בדויים.

 

 

מקור: הודעה לעיתונות 

עוד על בינה מלאכותית בשירות הרפואה