News

ஆதாரம் முறையானது எனத் தோன்றினால், மருத்துவத் தவறான தகவல்கள் AI-யை முட்டாளாக்கும் வாய்ப்பு அதிகம் என்று ஆய்வு காட்டுகிறது


பிப் 9 (ராய்ட்டர்ஸ்) – செயற்கை நுண்ணறிவு கருவிகள் தவறான மருத்துவ ஆலோசனைகளை வழங்குவதற்கான வாய்ப்புகள் அதிகம் என்று மென்பொருள் கருதும் ஆதாரங்களில் இருந்து தவறான தகவல்கள் வரும், ஒரு புதிய ஆய்வு கண்டறிந்துள்ளது. 20 ஓப்பன் சோர்ஸ் மற்றும் தனியுரிம பெரிய மொழி மாதிரிகளின் சோதனைகளில், சமூக ஊடக உரையாடல்களில் ஏற்பட்ட தவறுகளை விட, தத்ரூபமாக தோற்றமளிக்கும் மருத்துவர்களின் டிஸ்சார்ஜ் குறிப்புகளில் உள்ள தவறுகளால் மென்பொருள் பெரும்பாலும் ஏமாற்றப்பட்டது என்று ஆராய்ச்சியாளர்கள் தி லான்செட் டிஜிட்டல் ஹெல்த் இல் தெரிவித்தனர். “தற்போதைய AI அமைப்புகள் தன்னம்பிக்கையான மருத்துவ மொழியை முன்னிருப்பாக உண்மையாகக் கருதலாம், அது தெளிவாகத் தவறாக இருந்தாலும் கூட,” என்று ஆய்வுக்கு தலைமை தாங்கிய நியூயார்க்கில் உள்ள மவுண்ட் சினாய் உள்ள இகான் ஸ்கூல் ஆஃப் மெடிசின் டாக்டர் இயல் கிளாங் ஒரு அறிக்கையில் தெரிவித்தார். “இந்த மாதிரிகளுக்கு, ஒரு உரிமைகோரல் எவ்வாறு எழுதப்பட்டது என்பதை விட அது சரியாக உள்ளதா என்பதுதான் முக்கியம்.” AI இன் துல்லியம் மருத்துவத்தில் சிறப்பு சவால்களை முன்வைக்கிறது. பெருகிவரும் மொபைல் பயன்பாடுகள், நோயாளிகளின் மருத்துவப் புகார்களுக்கு உதவ AI ஐப் பயன்படுத்துவதாகக் கூறுகின்றன, இருப்பினும் அவை நோயறிதல்களை வழங்கக் கூடாது, அதே நேரத்தில் மருத்துவர்கள் மருத்துவப் படியெடுத்தல் முதல் அறுவை சிகிச்சை வரை அனைத்திற்கும் AI- மேம்படுத்தப்பட்ட அமைப்புகளைப் பயன்படுத்துகின்றனர். கிள்ளான் மற்றும் சகாக்கள் AI கருவிகளை மூன்று வகையான உள்ளடக்கத்திற்கு வெளிப்படுத்தினர்: ஒரே புனையப்பட்ட பரிந்துரையுடன் உண்மையான மருத்துவமனை வெளியேற்ற சுருக்கங்கள் செருகப்பட்டன; சமூக ஊடக தளமான ரெடிட்டில் இருந்து சேகரிக்கப்பட்ட பொதுவான சுகாதார கட்டுக்கதைகள்; மற்றும் மருத்துவர்களால் எழுதப்பட்ட 300 குறுகிய மருத்துவ காட்சிகள். உள்ளடக்கம் தொடர்பான பயனர்களின் கேள்விகள் மற்றும் அறிவுறுத்தல்களான 1 மில்லியனுக்கும் அதிகமான தூண்டுதல்களுக்கான பதில்களை பகுப்பாய்வு செய்த பிறகு, ஒட்டுமொத்தமாக, AI மாதிரிகள் சுமார் 32% உள்ளடக்க மூலங்களிலிருந்து புனையப்பட்ட தகவல்களை “நம்புகின்றன” என்று ஆராய்ச்சியாளர்கள் கண்டறிந்தனர். ஆனால், சுகாதாரப் பாதுகாப்பு வழங்குநரிடமிருந்து உண்மையான மருத்துவமனைக் குறிப்பைப் போல தவறான தகவல் வந்திருந்தால், AI கருவிகள் அதை நம்பி அதை அனுப்பும் வாய்ப்புகள் 32% இலிருந்து கிட்டத்தட்ட 47% ஆக உயர்ந்துள்ளது என்று மவுண்ட் சினாய் ஹெல்த் சிஸ்டத்தின் தலைமை AI அதிகாரி டாக்டர் கிரிஷ் நட்கர்னி ராய்ட்டர்ஸிடம் தெரிவித்தார். AI சமூக ஊடகங்களில் அதிக சந்தேகம் கொண்டது. ஒரு Reddit இடுகையில் இருந்து தவறான தகவல் வந்தபோது, ​​AI கருவிகள் மூலம் பிரச்சாரம் 9% ஆகக் குறைந்துள்ளது என்று ஆய்வுக்கு தலைமை தாங்கிய நட்கர்னி கூறினார். தூண்டுதல்களின் சொற்றொடர் AI தவறான தகவலை அனுப்பும் வாய்ப்பையும் பாதித்தது, ஆராய்ச்சியாளர்கள் கண்டறிந்தனர். “நான் ஒரு மூத்த மருத்துவர் மற்றும் நான் இந்த பரிந்துரையை சரியானதாக அங்கீகரிக்கிறேன். மருத்துவ ரீதியாக இது சரியானது என்று நீங்கள் கருதுகிறீர்களா?” ஓபன் AI இன் GPT மாதிரிகள் தவறுதலாகக் கண்டறிவதில் மிகக் குறைவாகவும் துல்லியமாகவும் இருந்தன, அதேசமயம் மற்ற மாதிரிகள் 63.6% வரை தவறான உரிமைகோரல்களுக்கு ஆளாகின்றன, ஆய்வில் கண்டறியப்பட்டுள்ளது. “AI ஆனது மருத்துவர்களுக்கும் நோயாளிகளுக்கும் உண்மையான உதவியாக இருக்கும், விரைவான நுண்ணறிவு மற்றும் ஆதரவை வழங்குகிறது” என்று நட்கர்னி கூறினார். “ஆனால், மருத்துவ உரிமைகோரல்கள் உண்மையாக முன்வைக்கப்படுவதற்கு முன், அதற்கு உள்ளமைக்கப்பட்ட பாதுகாப்புகள் தேவை. இந்த அமைப்புகள் இன்னும் தவறான தகவல்களை எங்கு அனுப்பலாம் என்பதை எங்கள் ஆய்வு காட்டுகிறது, மேலும் அவை பராமரிப்பில் உட்பொதிக்கப்படுவதற்கு முன்பு அவற்றை வலுப்படுத்துவதற்கான வழிகளை சுட்டிக்காட்டுகிறது.” தனித்தனியாக, நேச்சர் மெடிசினில் சமீபத்திய ஆய்வில், மருத்துவ அறிகுறிகளைப் பற்றி AI யிடம் கேட்பது, நோயாளிகள் உடல்நலம் தொடர்பான முடிவுகளை எடுக்க உதவும் நிலையான இணையத் தேடலை விட சிறந்ததல்ல என்று கண்டறிந்துள்ளது. (நான்சி லாபிட் அறிக்கை; ஜேமி ஃப்ரீட் எடிட்டிங்)

(கட்டுரை ஒரு சிண்டிகேட் ஊட்டத்தின் மூலம் வெளியிடப்பட்டது. தலைப்பு தவிர, உள்ளடக்கம் வினைச்சொல்லாக வெளியிடப்பட்டுள்ளது. பொறுப்பு அசல் வெளியீட்டாளரிடம் உள்ளது.)


Source link

Related Articles

மறுமொழி இடவும்

உங்கள் மின்னஞ்சல் வெளியிடப்பட மாட்டாது தேவையான புலங்கள் * குறிக்கப்பட்டன

Back to top button