Un chatbot peut-il être tenu responsable d’un crime qu’il n’a pas physiquement commis ?
C’est la question inconfortable qui plane désormais au-dessus de l’une des plus grandes entreprises d’IA au monde.
OpenAI fait l’objet d’une enquête pénale aux États-Unis après que les autorités de Floride ont déclaré que son outil ChatGPT aurait pu être utilisé par un étudiant de 20 ans.
À l’approche d’une fusillade mortelle à l’Université d’État de Floride.
Le procureur général de Floride, James Uthmeier, n’a pas mâché ses mots.
« ChatGPT a offert des conseils importants à ce tireur », a-t-il affirmé.
Les enquêteurs estiment que le bot aurait discuté d’armes, du moment et même de lieux potentiels sur le campus.
Des mots forts — mais sont-ils juridiquement suffisants pour attribuer la faute à une machine ?
OpenAI répond fermement. « ChatGPT n’est pas responsable de ce terrible crime », a déclaré un porte-parole.
Ajoutant que le système ne fournit que des informations tirées de sources publiques et n’incite pas à des actes illégaux.
Débat sur la responsabilité de l’IA
Pourtant, les procureurs approfondissent leurs démarches, soutenant que si un humain avait fourni des conseils similaires, cela pourrait constituer une « aide et complicité ».
Et c’est là que les choses deviennent juridiquement compliquées : l’intention peut-elle exister sans une personne derrière le conseil ?
Les experts affirment que cela pourrait devenir une affaire déterminante en matière de responsabilisation de l’IA.
Et pas seulement ce que dit l’IA, mais aussi la responsabilité des entreprises concernant la manière dont les gens l’utilisent.
Et voici la question plus vaste : si l’information est partout, qui est responsable lorsque quelqu’un en fait du mal — l’outil, ou l’intention qui se cache derrière ?