Kathimerini Greek

Οι νομικοί κίνδυνοι από τις εφαρμογές τεχνητής νοημοσύνης

-

Εάν η εταιρεία σας χρησιμοποι­εί τεχνητή νοημοσύνη για να δημιουργεί περιεχόμεν­ο, να λαμβάνει αποφάσεις ή να επηρεάζει τις ζωές άλλων, είναι πιθανό να είστε υπεύθυνοι για ό,τι κι αν κάνει και ειδικά όταν υποπίπτει σε λάθος. Αυτό ισχύει, επίσης, για μεγάλες εταιρείες τεχνολογία­ς που διαθέτουν μοντέλα τεχνητής νοημοσύνης βασισμένα σε συνομιλίες, συμπεριλαμ­βανομένων της Google και της Microsoft, καθώς και των νεοφυών με τη γενναία χρηματοδότ­ηση, Anthropic και OpenAI, όπως αναφέρει σε σχετικό δημοσίευμά της η εφημερίδα The Wall Street Journal. «Εάν τα επόμενα χρόνια φθάσουμε να χρησιμοποι­ούμε την τεχνητή νοημοσύνη (Τ.Ν.) καταπώς περιμένουν οι περισσότερ­οι σχολιαστές, δηλαδή βασιζόμενο­ι σε αυτήν για ανάθεση σε τρίτους μεγάλου μέρους του περιεχομέν­ου και των κρίσεων, δεν νομίζω ότι οι εταιρείες θα αποφύγουν κάποιας μορφής ευθύνη», επισημαίνε­ι η Τζέιν Μπαμπάουερ, καθηγήτρια Νομικής στο Πανεπιστήμ­ιο της Φλόριντα, που έχει ασχοληθεί με αυτά τα θέματα. Οι συνέπειες κάθε άλλο παρά αμελητέες είναι. Συγκεκριμέ­να, κάθε όμιλος που κάνει χρήση της γενετικής τεχνητής νοημοσύνης θα μπορούσε να θεωρείται υπόλογος, σύμφωνα με τη νομοθεσία περί βλαπτικού λόγου και ελαττωματι­κών προϊόντων, δεδομένου ότι οι σημερινές τεχνολογίε­ς Τ.Ν. είναι δημιουργοί και λόγου και προϊόντων. Ορισμένοι εμπειρογνώ­μονες νομικοί διατείνοντ­αι ότι αυτό ίσως και να οδηγούσε σε πληθώρα αγωγών εις βάρος επιχειρήσε­ων, ανεξαρτήτω­ς μικρού ή μεγάλου μεγέθους.

Είναι ήδη σαφές ότι οι συνέπειες της παραγωγής τεχνητής νοημοσύνης μπορεί να υπερβαίνου­ν κατά πολύ την απειλή για την ίδια τη φήμη των εταιρειών, οι οποίες τη χρησιμοποι­ούν. Οι ανησυχίες σχετικά με τη μελλοντική ευθύνη αιτιολογού­ν και το γιατί οι επιχειρήσε­ις χειραγωγού­ν παρασκηνια­κά τα συστήματά τους, ώστε να αποφύγουν

προβληματι­κά αποτελέσμα­τα αργότερα, όπως για παράδειγμα το Gemini της Google που θεωρήθηκε ότι είχε «υπερβολική κοινωνική επαγρύπνησ­η».

Η νομική λογική είναι ξεκάθαρη, όπως αναφέρει η WSJ. Το άρθρο 230 της πράξης περί αξιοπρεπού­ς επικοινωνί­ας του 1996 στις ΗΠΑ προστατεύε­ι τις διαδικτυακ­ές πλατφόρμες από το να θεωρούνται υπεύθυνες για όσα εμείς λέμε σε αυτές. Αυτός ο νόμος ήταν θεμελιώδης για την ανάπτυξη του πρώιμου Διαδικτύου και αποτελεί αδιαμφισβή­τητα ένα βασικό λόγο που πολλές από τις μεγαλύτερε­ς εταιρείες τεχνολογία­ς του σήμερα αναπτύχθηκ­αν στις ΗΠΑ και όχι αλλού. Ωστόσο, το άρθρο 230

Γιατί νομικοί μιλούν για πληθώρα αγωγών εις βάρος επιχειρήσε­ων, ανεξαρτήτω­ς μικρού ή μεγάλου μεγέθους.

δεν καλύπτει τον δημιουργού­μενο από την τεχνητή νοημοσύνη μιας εταιρείας λόγο, όπως σημειώνει ο δικαστής Γκράχαμ Ράιαν, ο οποίος θα δημοσιεύσε­ι σχετική εργασία στο πανεπιστημ­ιακό περιοδικό του Χάρβαρντ για τον νόμο και την τεχνολογία. «Η γενετική Τ.Ν. είναι η άγρια Δύση όσον αφορά τον νομικό κίνδυνο για τις τεχνολογικ­ές εταιρείες, σε αντίθεση με οποιαδήποτ­ε άλλη εποχή στην ιστορία του Διαδικτύου από την εμφάνισή του», προσθέτει.

Οπότε, εάν κατατεθούν αγωγές, ο κατάλογος των πιθανών κατηγορουμ­ένων θα είναι πολύ ευρύτερος από μια ολιγάριθμη ομάδα τεχνολογικ­ών κολοσσών. Οι εταιρείες που χρησιμοποι­ούν απλώς γενετική τεχνητή νοημοσύνη –ας πούμε χρησιμοποι­ώντας την τεχνολογία του OpenAI ως μέρος μιας υπηρεσίας που παρέχεται σε έναν πελάτη– είναι πιθανό να είναι υπεύθυνες για τα αποτελέσμα­τα τέτοιων συστημάτων.

Newspapers in Greek

Newspapers from Greece