Take a fresh look at your lifestyle.

L’ingénieur de Google assure que son IA a embauché un avocat pour défendre ses droits

Blake Lemoine a attiré toute l’attention médiatique en déclarant qu’une IA de Google est devenue une vraie personne. Face aux critiques, il estime qu’émerge une « intolérance hydrocarbure ».

À partir de quel stade peut-on considérer qu’une intelligence artificielle est une vraie personne ? La question peut sembler très prospective, sachant qu’il n’existe même pas encore d’IA dite « forte ». Le débat fait pourtant rage en ce moment au cœur de la Silicon Valley, depuis les déclarations d’un ingénieur de Google début juin. Blake Lemoine affirme que l’IA sur laquelle il travaille est sentiente — c’est-à-dire qu’elle est une personne capable de ressentir des émotions et des sentiments, ou d’appréhender la mort.

Pour prouver ses dires, il a partagé sur son blog, puis lors d’un entretien avec le Washington Post, des extraits de conversation avec l’IA, ce qui lui a valu une suspension de la part de Google. Blake Lemoine s’était défendu en expliquant que, selon lui, ce n’était pas le partage d’une propriété de l’entreprise, mais le partage d’une « une discussion que j’ai eue avec un de mes collègues ».

Depuis lors, Blake Lemoine fait face aux critiques, car l’intelligence artificielle dont il parle, du nom de LaMDA, n’est qu’un chatbot — un algorithme qui imite les interactions humaines. C’est par un phénomène d’anthropomorphisme que l’ingénieur y perçoit une véritable personne. Pourtant, dans une interview du 17 juin, pour Wired, il persiste et signe — et va même encore plus loin.

LIRE LA SUITE ICI

Les commentaires sont fermés.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More