ΥΓΕΙΑ

Η Τεχνητή Νοημοσύνη μπορεί να κάνει πιο δύσκολη την απόδοση ευθυνών για ιατρικά λάθη, λένε οι ειδικοί


Η χρήση Τεχνητής Νοημοσύνης (AI) στην υγειονομική περίθαλψη θα μπορούσε να δημιουργήσει ένα νομικά περίπλοκο παιχνίδι απόδοσης ευθυνών.

Η εξέλιξη της Τεχνητής Νοημοσύνης (AI) για κλινική χρήση σημειώνει άλματα, με τους ερευνητές να δημιουργούν πλήθος εργαλείων, από αλγόριθμους που βοηθούν στην ερμηνεία απεικονιστικών εξετάσεων έως συστήματα που μπορούν να βοηθήσουν με τις διαγνώσεις. Η Τεχνητή Νοημοσύνη αναπτύσσεται επίσης για να βοηθήσει στη διαχείριση νοσοκομείων, από τη βελτιστοποίηση της δυναμικότητας σε κλίνες έως την αντιμετώπιση των αλυσίδων εφοδιασμού.

Ωστόσο, ενώ οι ειδικοί λένε ότι η τεχνολογία θα μπορούσε να αποφέρει χιλιάδες οφέλη για την υγειονομική περίθαλψη, λένε ότι υπάρχει επίσης λόγος ανησυχίας, από την έλλειψη δοκιμών της αποτελεσματικότητας των εργαλείων Τεχνητής Νοημοσύνης έως ερωτηματικά για το ποιος είναι υπεύθυνος σε περίπτωση που ένας ασθενής έχει αρνητικό αποτέλεσμα.

Η σύνοδος κορυφής Jama για την Τεχνητή Νοημοσύνη, που διοργανώθηκε πέρυσι από το Journal of the American Medical Association, συγκέντρωσε πλειάδα εμπειρογνωμόνων, συμπεριλαμβανομένων κλινικών γιατρών, εταιρειών τεχνολογίας, ρυθμιστικών φορέων, ασφαλιστών, δικηγόρων και οικονομολόγων.

Η έκθεση που προέκυψε δεν εξετάζει τη φύση των εργαλείων Τεχνητής Νοημοσύνης και τους τομείς της υγειονομικής περίθαλψης όπου χρησιμοποιούνται, αλλά εξετάζει επίσης τις προκλήσεις που παρουσιάζουν, συμπεριλαμβανομένων νομικών ζητημάτων.

Ο καθηγητής Glenn Cohen από τη Νομική Σχολή του Χάρβαρντ και από τους συγγραφείς της έκθεσης, ανέφερε ότι οι ασθενείς θα μπορούσαν να αντιμετωπίσουν δυσκολίες στην απόδειξη σφάλματος στη χρήση ή τον σχεδιασμό ενός προϊόντος τεχνητής νοημοσύνης. Θα μπορούσαν να υπάρχουν εμπόδια στην απόκτηση πληροφοριών σχετικά με την εσωτερική λειτουργία του, ενώ θα μπορούσε επίσης να είναι δύσκολο να προταθεί ένας λογικός εναλλακτικός σχεδιασμός για το προϊόν ή να αποδειχθεί ότι ένα κακό αποτέλεσμα προκλήθηκε από το σύστημα Τεχνητής Νοημοσύνης.

Η αλληλεπίδραση μεταξύ των μερών μπορεί επίσης να παρουσιάσει προκλήσεις για την άσκηση ένδικων μέσων, σημειώνει, σύμφωνα με την Guardian. Ο ένας μπορεί να επιρρίπτει την ευθύνη στον άλλο και μπορεί να υπάρχει συμφωνία που ανακατανέμει συμβατικά την ευθύνη ή να έχουν αγωγές αποζημίωσης, εξηγεί.

Η έκθεση εγείρει επίσης ανησυχίες σχετικά με τον τρόπο αξιολόγησης των εργαλείων Τεχνητής Νοημοσύνης, σημειώνοντας ότι πολλά βρίσκονται εκτός της εποπτείας ρυθμιστικών Αρχών, όπως ο αμερικανικός Οργανισμός Τροφίμων και Φαρμάκων (FDA).

Τα εργαλεία Τεχνητής Νοημοσύνης μπορούν να αναπτυχθούν με τόσους πολλούς απρόβλεπτους τρόπους σε διαφορετικά κλινικά περιβάλλοντα, με διαφορετικά είδη ασθενών, από χρήστες που έχουν διαφορετικά επίπεδα δεξιοτήτων. Υπάρχουν ελάχιστες εγγυήσεις ότι αυτό που φαίνεται να είναι καλή ιδέα στο πακέτο προέγκρισης είναι στην πραγματικότητα αυτό που λαμβάνετε στην πράξη.

Η έκθεση υπογραμμίζει ότι προς το παρόν υπάρχουν πολλά εμπόδια στην αξιολόγηση των εργαλείων Τεχνητής Νοημοσύνης, συμπεριλαμβανομένου του ότι συχνά πρέπει να βρίσκονται σε κλινική χρήση για να αξιολογηθούν πλήρως, ενώ οι τρέχουσες προσεγγίσεις στην αξιολόγηση είναι δαπανηρές και δυσκίνητες.

Αυτό σημαίνει, σύμφωνα με τους ειδικούς, ότι είναι σημαντικό να διατεθεί χρηματοδότηση για την ορθή αξιολόγηση της απόδοσης των εργαλείων Τεχνητής Νοημοσύνης στην υγειονομική περίθαλψη, με τις επενδύσεις σε ψηφιακές υποδομές να αποτελούν βασικό τομέα.

Φωτογραφία: iStock

ΔΙΑΒΑΣΤΕ ΕΠΙΣΗΣ:

Τρία αντικείμενα στο μπάνιο που δεν πρέπει να μοιράζεστε, σύμφωνα με έναν ειδικό

Τα παιδιά που χρησιμοποιούν social media έχουν χαμηλότερες επιδόσεις στα τεστ ανάγνωσης και απομνημόνευσης, δείχνει έρευνα



Source link

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *