Κίνδυνος μεροληψίας και διαρροής πληροφοριών
Η διασφάλιση του απορρήτου και της διαθεσιμότητας έγκυρων και αντιπροσωπευτικών δεδομένων αποτελεί βασική πρόκληση αλλά και προϋπόθεση για την αξιοποίηση συστημάτων τεχνητής νοημοσύνης στον τομέα της υγείας και της υγειονομικής περίθαλψης.
Ο κ. Κυριάκος Σουλιώτης αναφέρει ότι «αναμφίβολα πρόκειται για κάτι σχετικά νέο στην υγειονομική περίθαλψη και εύλογα προκαλούνται ανησυχίες για τους κινδύνους π.χ. από την τροφοδότηση των συστημάτων τεχνητής νοημοσύνης με μη έγκυρα δεδομένα ή τη διαρροή εμπιστευτικών και ευαίσθητων πληροφοριών υγείας των πολιτών. Επιπλέον, ανησυχία έχει διατυπωθεί για τον κίνδυνο σταδιακής υποκατάστασης του ανθρώπινου παράγοντα στις υπηρεσίες υγείας, με πολλαπλές επιπτώσεις στην απασχόληση και στην ποιότητα των φροντίδων υγείας».
Οπως επισημαίνει η κ. Μαρία Γαζούλη, «όσον αφορά την εφαρμογή της τεχνητής νοημοσύνης στον κλάδο της υγειονομικής περίθαλψης, το απόρρητο αποτελεί σημαντική ανησυχία. Τα δεδομένα ασθενών αποτελούνται από εξαιρετικά ευαίσθητα προσωπικά αναγνωρίσιμα στοιχεία (PII), όπως ιατρικό ιστορικό, στοιχεία ταυτότητας και πληροφορίες πληρωμής, τα οποία προστατεύονται από κανονιστικές οδηγίες που παρέχονται από τον GDPR και το HIPAA.
Ομως, όταν τα δεδομένα ανεβαίνουν σε μια cloud υπηρεσία προκειμένου να αναλυθούν από συστήματα AI, υπάρχουν ανοιχτά ζητήματα ασφάλειας». Σύμφωνα με την καθηγήτρια, ένας κίνδυνος αφορά και τη διαθεσιμότητα των δεδομένων. «Η εκπαίδευση των συστημάτων τεχνητής νοημοσύνης απαιτεί μεγάλες ποσότητες δεδομένων από πηγές όπως ηλεκτρονικά αρχεία υγείας, αρχεία φαρμακείων, ασφαλιστικών εταιρειών ή πληροφορίες που δημιουργούνται από τους καταναλωτές, όπως ιχνηλάτες φυσικής κατάστασης ή ιστορικό αγορών. Αλλά τα δεδομένα υγείας είναι συχνά προβληματικά και κατακερματισμένα», σημειώνει και συνεχίζει: «Οι ασθενείς συνήθως βλέπουν διαφορετικούς παρόχους και αλλάζουν ασφαλιστικές εταιρείες, οδηγώντας σε διαχωρισμό δεδομένων σε πολλαπλά συστήματα και πολλαπλές μορφές. Αυτός ο κατακερματισμός αυξάνει τον κίνδυνο λάθους, μειώνει την πληρότητα των συνόλων δεδομένων και αυξάνει το κόστος συλλογής τους, γεγονός που περιορίζει επίσης τους τύπους οντοτήτων που μπορούν να αναπτύξουν αποτελεσματική τεχνητή νοημοσύνη στον τομέα της υγείας».
Ανισότητες
Στο ίδιο πλαίσιο, υπάρχει και ο κίνδυνος μεροληψίας και ανισότητας στην τεχνητή νοημοσύνη στον τομέα της υγείας. Οπως επισημαίνει η κ. Γαζούλη, τα συστήματα AI μαθαίνουν από τα δεδομένα στα οποία εκπαιδεύονται και μπορούν να ενσωματώσουν προκαταλήψεις από αυτά τα δεδομένα. «Για παράδειγμα, εάν τα διαθέσιμα δεδομένα για την τεχνητή νοημοσύνη συλλέγονται κυρίως σε ακαδημαϊκά ιατρικά κέντρα, το προκύπτον σύστημα AI θα γνωρίζει λιγότερα για ασθενείς από πληθυσμούς που συνήθως δεν συχνάζουν στα ακαδημαϊκά ιατρικά κέντρα. Ακόμη κι αν τα συστήματα τεχνητής νοημοσύνης μαθαίνουν από ακριβή, αντιπροσωπευτικά δεδομένα, μπορεί να υπάρχουν προβλήματα εάν αυτές οι πληροφορίες αντικατοπτρίζουν υποκείμενες προκαταλήψεις και ανισότητες στο σύστημα υγείας».
Η έλλειψη διαφάνειας αποτελεί επίσης προβληματικό σημείο. «Πολλά συστήματα τεχνητής νοημοσύνης θεωρούνται “μαύρα κουτιά” επειδή είναι δύσκολο να κατανοήσουμε πώς κατέληξαν σε μια συγκεκριμένη απόφαση. Αυτή η έλλειψη διαφάνειας μπορεί να δυσκολέψει τους γιατρούς και άλλους επαγγελματίες υγείας να εμπιστευθούν τα αποτελέσματα ενός συστήματος AI», τονίζει η κ. Γαζούλη.
«Η έλλειψη διαφάνειας μπορεί να δυσκολέψει τους γιατρούς και άλλους επαγγελματίες υγείας να εμπιστευθούν τα αποτελέσματα ενός συστήματος AI».