Τα τελευταία χρόνια έχει αναπτυχθεί έντονη δημόσια συζήτηση σχετικά με το τι συνεπάγεται η υπεύθυνη χρήση της τεχνητής νοημοσύνης (Artificial Intelligence – ΑΙ) και έχουν πολλαπλασιαστεί οι κανόνες δεοντολογίας που έχουν εκδοθεί από κυβερνητικούς και μη κυβερνητικούς οργανισμούς.
Έκθεση που δημοσίευσε στις αρχές Ιανουαρίου η Geneva Association επιδιώκει να συμβάλει στην υπεύθυνη χρήση της AI στην ασφάλιση και στην αξιοποίηση των ωφελειών της για την κοινωνία.
Στην έκθεση αναλύονται δύο από τις πέντε βασικές αρχές που απαιτούνται για την υπεύθυνη χρήση της AI: 1) διαφάνεια και επεξηγησιμότητα και 2) δικαιοσύνη/ίση μεταχείριση, που δημιουργούν ιδιαίτερα περίπλοκα ζητήματα στην ασφάλιση. Με αυτή την ανάλυση και μια σειρά συστάσεων για τους ασφαλιστές, η Geneva Association επιδιώκει να συμβάλει στην υπεύθυνη χρήση της AI στην ασφάλιση και στην αξιοποίηση των οφελών της για την κοινωνία.
Προώθηση της υπεύθυνης τεχνητής νοημοσύνης στην ασφάλιση
Από τη δεκαετία του 1970 έως τα τέλη της δεκαετίας του 1990 υπήρξαν πολλές αποτυχίες και απογοήτευση όσον αφορά την τεχνητή νοημοσύνη (ΑΙ). Μετά το τέλος του επονομαζόμενου “AI Winter”, η τεχνητή νοημοσύνη έχει σημειώσει αξιοσημείωτη πρόοδο. Σήμερα, τα συστήματα AI χρησιμοποιούνται εμπορικά σε ένα αυξανόμενο πεδίο εφαρμογών.
Πολλές ασφαλιστικές εταιρείες χρησιμοποιούν έξυπνα συστήματα, τα οποία αυτοματοποιούν εργασίες ρουτίνας ή βοηθούν στη λήψη αποφάσεων από τον άνθρωπο σε ολόκληρη την αλυσίδα αξίας της ασφάλισης. Τέτοια συστήματα συνδυάζουν νέους τύπους αλγορίθμων μάθησης με την ανάλυση δεδομένων από νέες πηγές, όπως τα δεδομένα των online μέσων και τα δεδομένα του Διαδικτύου των πραγμάτων (IoT). Στο μέλλον, τα ευφυή συστήματα θα λαμβάνουν αυτόνομες τυποποιημένες αποφάσεις σε έναν αυξανόμενο αριθμό τομέων.
Η χρήση της ΑΙ στην ασφάλιση έχει τη δυνατότητα να αποφέρει οικονομικά και κοινωνικά οφέλη που υπερβαίνουν τους ασφαλιστές και τους πελάτες τους, επιτρέποντας τη διεύρυνση του πεδίου εφαρμογής του risk pooling και ενισχύοντας τη μείωση, τον μετριασμό και την πρόληψη των κινδύνων.
Προκειμένου να προωθηθεί η υιοθέτηση συστημάτων AI και να γίνουν αντιληπτά τα οφέλη τους, οι ασφαλιστές πρέπει να κερδίσουν την εμπιστοσύνη των πελατών τους χρησιμοποιώντας τη νέα τεχνολογία με υπεύθυνο τρόπο.
Τα τελευταία χρόνια έχει ξεκινήσει έντονη δημόσια συζήτηση σχετικά με το τι συνεπάγεται η υπεύθυνη χρήση της ΑΙ και έχουν πολλαπλασιαστεί οι κανόνες δεοντολογίας που έχουν εκδοθεί από κυβερνητικούς και μη κυβερνητικούς οργανισμούς τους τελευταίους 12 έως 24 μήνες. Το ερώτημα “τι σημαίνει υπεύθυνη χρήση του AI και πώς πρέπει να διασφαλιστεί”, είναι το θέμα μιας συζήτησης σε εξέλιξη.
Η ανάλυση των κατευθυντήριων γραμμών για την ηθική χρήση του AI υποδηλώνει ότι υπάρχει παγκόσμια σύγκλιση προς πέντε βασικές αρχές:
- διαφάνεια και επεξηγησιμότητα (transparency and explainability),
- ίση μεταχείριση (fairness),
- ασφάλεια (safety),
- υπευθυνότητα (accountability) και
- ιδιωτικότητα (privacy) (Jobin et. al. 2019).2
Υπάρχουν, ωστόσο, κρίσιμες διαφορές ως προς τον τρόπο με τον οποίο ερμηνεύονται αυτές οι αρχές καθώς και ποιες απαιτήσεις θεωρούνται απαραίτητες για την υλοποίησή τους. Επιπλέον, εξακολουθεί να υπάρχει σημαντική αβεβαιότητα σχετικά με τον τρόπο με τον οποίο πρέπει να εφαρμοστούν οι δεοντολογικές αρχές και οι κατευθυντήριες γραμμές σε ένα συγκεκριμένο πλαίσιο (Jobin et. al. 2019).
Οριστική απάντηση στις ερωτήσεις αυτές δεν υπάρχει. Ωστόσο, η πρόσφατη έκθεση της Geneva Association στοχεύει να συμβάλει στον εντοπισμό και τη συζήτηση των βασικών συμβιβασμών που προκύπτουν κατά την εφαρμογή των βασικών αρχών για την υπεύθυνη ΑΙ στον τομέα της ασφάλισης. Για παράδειγμα, η ενίσχυση της ερμηνείας σύνθετων μοντέλων συχνά φέρνει μειωμένες παροχές, και τα υπερβολικά περίπλοκα μοντέλα μπορεί να έχουν περιορισμένο πρόσθετο όφελος.
Παρότι και οι πέντε βασικές αρχές για υπεύθυνη AI είναι κρίσιμες, η έκθεση της Geneva Association επικεντρώνεται στις δύο αρχές που δημιουργούν ιδιαίτερα περίπλοκα ζητήματα στην ασφάλιση: 1) τη διαφάνεια και επεξήγηση και 2) την ίση μεταχείριση.3
Η εφαρμογή της αρχής της ίσης μεταχείρισης στην ασφάλιση απαιτεί συμβιβασμούς που δεν προκύπτουν συνήθως σε άλλες βιομηχανίες. Ο μετριασμός της μεροληψίας και των διακρίσεων είναι ιδιαίτερα δύσκολος στην ασφάλιση, με τα πρότυπα δικαιοσύνης να είναι διαφορετικά και να αλληλοαναιρούνται.
Η διασφάλιση μιας ισορροπημένης αξιολόγησης των ωφελειών και των κινδύνων από συγκεκριμένες χρήσεις της AI απαιτεί σαφή ανάθεση ρόλων και αρμοδιοτήτων σε έναν οργανισμό καθώς και εμπειρογνωμοσύνη και πείρα στον τομέα της επιστήμης των δεδομένων, της αναλογιστικής επιστήμης, της διαχείρισης κινδύνων και της προστασίας των δεδομένων.
Με βάση την έρευνα της Geneva Association, η έκθεση ολοκληρώνεται με τρεις συστάσεις προς τους ασφαλιστές για την προώθηση την υπεύθυνης χρήσης της AI στους οργανισμούς τους:
- θέσπιση εσωτερικών κατευθυντήριων γραμμών και πολιτικών,
- υιοθέτηση κατάλληλης δομής διακυβέρνησης για την αντιμετώπιση των σχετικών κινδύνων και
- ανάπτυξη και υλοποίηση ολοκληρωμένων προγραμμάτων κατάρτισης για υπαλλήλους και ασφαλιστικούς διαμεσολαβητές-συνεργάτες. Παρόλο που υπάρχουν πολλά διαφορετικά μοντέλα διακυβέρνησης, οι ασφαλιστές μπορούν να επιλέξουν κάποιο από τα υφιστάμενα συστήματα διαχείρισης κινδύνων και αναλογιστικών πλαισίων.
1 Ως εκ τούτου, τα ευφυή συστήματα με την ευρεία έννοια είναι τεχνολογίες που βοηθούν ή αντικαθιστούν τις ανθρώπινες αποφάσεις (Νομισματική Αρχή της Σιγκαπούρης 2018 και BaFin 2018).
2 Οι Jobin et. al. (2019) χρησιμοποιούν τους όρους ‘transparency’ (διαφάνεια), ‘justice and fairness’ (δικαιοσύνη και ίση μεταχείριση), ‘non-maleficence’ (αποφυγή πρόκλησης βλαβών), ‘responsibility and accountability’ (ευθύνη και λογοδοσία) και ‘privacy’ (ιδιωτικότητα) για τις πέντε βασικές αρχές.
3 Η εστίαση στη διαφάνεια-επεξηγησιμότητα και στην ίση μεταχείριση δεν συνεπάγεται ότι οι αρχές της ασφάλειας, της λογοδοσίας και της ιδιωτικότητας έχουν μικρότερη σημασία. Στην πραγματικότητα, η ασφάλεια των συστημάτων AI και η προστασία της ιδιωτικής ζωής των πελατών μπορεί να θεωρηθούν ως θεμέλιο για τη σωστή χρήση του AI. Για μια συζήτηση των θεμάτων προστασίας της ιδιωτικότητας που προκύπτουν από την ανάλυση των big data στην ασφάλιση, βλ. την έκθεση The Geneva Association 2018.
Πηγή: www.aagora.gr