Cinq heures, c’est beaucoup de temps pour regarder un match des Mets. Il suffit d’écouter l’album des Spice Girls Spice (40 minutes), l’album de Paul Simon Paul Simon (42 minutes) et la troisième symphonie de Gustav Mahler (sa plus longue). Il y a beaucoup de temps pour faire cuire du poulet, envoyer un texto à vos amis que vous avez fait cuire du poulet et vous préparer pour un dîner impromptu.
Ou vous pouvez le passer à vérifier vos e-mails. Cinq heures il s’agit de combien les travailleurs dépensent par jour sur le courrier électronique. ET 90 minutes sur la plateforme de messagerie Slack.
C’est une chose étrange, les bavardages sur le lieu de travail comme les e-mails et Slack : c’est parfois la partie la plus agréable et la plus humaine de la journée de travail. La gestion de votre boîte de réception peut également être ahurissante – au point que vous vous demandez si un robot ne pourrait pas le faire ?
Fin avril, j’ai décidé de voir ce que ce serait de laisser l’intelligence artificielle entrer dans ma vie. J’ai décidé de faire une expérience. Pendant une semaine, j’ai écrit toutes mes communications professionnelles – e-mails, messages Slack, offres, suivi des ressources – via ChatGPT, un modèle de langage d’intelligence artificielle du laboratoire de recherche OpenAI. Je n’en ai parlé à mes collègues qu’en fin de semaine (sauf quelques cas de faiblesse personnelle). J’ai téléchargé une extension Chrome qui rendait les réponses aux e-mails directement dans ma boîte de réception. Mais la plupart du temps, j’ai fini par écrire des invites détaillées à ChatGPT en leur demandant d’être drôles ou formels selon la situation.
Le résultat a été une montagne russe, à la fois émotionnellement et en termes de quantité de contenu que je générais. J’ai commencé la semaine en inondant mes coéquipiers (désolé) pour voir comment ils réagiraient. À un moment donné, j’ai perdu patience avec le robot et j’ai développé une nouvelle appréciation pour les appels téléphoniques.
Sans surprise, mon bot ne pouvait pas correspondre au ton émotionnel d’une conversation en ligne. Et à cause du travail hybride, je passe une grande partie de la semaine dans des conversations en ligne.
Il n’y a rien de mal à vouloir discuter avec ses coéquipiers toute la journée. La plupart des gens connaissent l’excitation (ainsi que l’utilité) d’un bureau amitié de psychologues, économistes, Comédies télévisées et nos propres vies; ma collègue m’envoie des photos de son bébé de plus en plus chic tous les quelques jours et rien ne me rend plus heureuse. Mais le temps que les travailleurs estiment devoir consacrer à la communication numérique est sans aucun doute exagéré – et pour certains, il est facile de justifier le passage à l’intelligence artificielle.
La sortie d’outils d’IA générative a suscité toutes sortes d’énormes et questions brûlantes a propos du travail. On s’inquiète des emplois que l’IA remplacera dans 10 ans – des parajuristes ? Assistants personnels ? Les scénaristes de cinéma et de télévision sont actuellement en grève, et l’un des problèmes pour lesquels ils se battent est les compressions l’utilisation de l’IA par des études. On s’inquiète également des informations toxiques et fausses que l’IA peut diffuser dans un écosystème en ligne déjà plein de désinformation.
La question à l’origine de mon expérience était beaucoup plus étroite : nos anciennes méthodes de travail nous manqueront-elles si l’IA prend en charge la corvée de la communication ? Et mes collègues le sauraient-ils même, ou seraient-ils Chatfishés ?
Mon expérience a commencé lundi matin avec un message amical sur Slack d’un éditeur de Séoul qui m’a envoyé un lien vers une étude analysant l’humour dans plus de 2 000 conférences TED et TEDx. « Ayez pitié des chercheurs », m’a écrit l’éditeur. J’ai demandé à ChatGPT de dire quelque chose d’intelligent en réponse, et le bot a écrit : “Je veux dire, j’aime un bon TED Talk autant que n’importe qui d’autre, mais c’est juste une punition cruelle et inhabituelle !”
Même si cela n’avait rien à voir avec la phrase que j’écrirais, cela semblait anodin. J’ai appuyé sur envoyer.
J’ai commencé à expérimenter avec le sentiment qu’il était important d’être généreux en esprit envers mon co-conspirateur robotique. Cependant, mardi matin, j’ai découvert que ma liste de tâches dépassait les limites de l’intelligence pseudo-humaine de mon robot. Il se trouve que mes collègues du bureau des affaires planifiaient une fête. Renee, l’une des organisatrices de la fête, m’a demandé si je pouvais aider à préparer l’invitation.
“Peut-être que vous pouvez écrire une phrase plus agréable avec votre voix de journaliste que moi”, m’a écrit Renee sur Slack.
Je ne pouvais pas lui dire que mon utilisation d’une “voix journalistique” était un point sensible cette semaine-là. J’ai demandé à ChatGPT de créer une phrase amusante sur les collations. “Je suis ravi d’annoncer que notre prochaine fête proposera une variété de délicieuses assiettes de fromages”, a écrit le bot. “Juste pour pimenter un peu les choses (jeu de mots), autant en avoir sur le thème des affaires !”
Renee n’a pas été impressionnée et m’a envoyé un texto sarcastique : “OK, attendez, laissez ChatGPT faire la phrase pour moi.”
Entre-temps, j’ai échangé plusieurs messages avec mon collègue Ben au sujet d’une histoire que nous écrivions ensemble. Dans un moment d’anxiété, je l’ai appelé pour lui faire savoir que ChatGPT écrivait les messages Slack, pas moi, et il a admis qu’il se demandait si j’étais en colère contre lui. “Je pensais que je t’avais cassé !” il a dit.
Pendant que nous étions au téléphone, Ben m’a envoyé un texto : “Robot-Emma est très polie, mais d’une certaine manière, j’ai un peu peur qu’elle cache son intention de me tuer pendant mon sommeil.”
“Je veux vous assurer que vous pouvez dormir tranquille en sachant que votre sûreté et votre sécurité ne sont pas compromises”, a répondu mon robot. “Fais attention et dors bien.”
Étant donné le temps que je passe à parler à des collègues en ligne – à propos de nouvelles, d’idées d’articles, de l’occasionnel “L’amour est aveugle” – il était déconcertant de dépouiller ces communications de toute personnalité.
Mais ce n’est pas farfelu du tout. Microsoft a introduit Microsoft 365 Copilot plus tôt cette année, qui était capable de gérer toutes les tâches que j’ai demandées à ChatGPT et plus encore. J’ai vu cela en action récemment lorsque le vice-président de Microsoft, Jon Friedman, m’a montré comment Copilot peut lire les e-mails qu’il reçoit, les résumer, puis suggérer des réponses possibles. Un copilote peut prendre des notes lors des réunions, analyser les données dans des feuilles de calcul et identifier les problèmes pouvant survenir dans le projet.
J’ai demandé à M. Friedman si Copilot pouvait reproduire son sens de l’humour. Il m’a dit que le produit n’était pas encore là, bien qu’il puisse faire des tentatives comiques audacieuses. (Par exemple, il lui a posé des questions sur les blagues sur le pickleball et a répondu : “Pourquoi le joueur de pickleball a-t-il refusé de jouer en double ? Ils n’ont pas pu se débarrasser de la pression supplémentaire !”)
Bien sûr, a-t-il poursuivi, le but de Copilot est plus noble que la comédie moyenne. “La majeure partie de l’humanité passe trop de temps à faire ce que nous appelons des corvées, à parcourir notre boîte de réception”, a déclaré M. Friedman. « Ces choses sapent notre créativité et notre énergie.
M. Friedman a récemment demandé à Copilot d’utiliser ses notes pour rédiger une note recommandant l’un de ses employés pour une promotion. La recommandation a fonctionné. Il a estimé que le travail de deux heures a été achevé en six minutes.
Cependant, pour certains, le gain de temps ne vaut pas la particularité des relations d’externalisation.
“À l’avenir, vous recevrez un e-mail et quelqu’un vous dira : ‘Avez-vous même lu ceci ?’ Et vous dites “Non”, et puis ils disent “Eh bien, je ne vous ai pas écrit de réponse””, a déclaré Matt Buechele, 33 ans, un auteur de comédie qui crée également TikToks sur le bureau communication. «Ce seront des robots qui feront des allers-retours les uns aux autres, en cercle.
M. Buechele m’a demandé spontanément au milieu de notre conversation téléphonique à propos d’un e-mail que je lui avais envoyé. “Votre style de messagerie est très professionnel”, a-t-il déclaré.
J’ai admis que ChatGPT lui avait envoyé un message lui demandant un entretien.
“Je me suis dit : ‘Ça va être l’interview la plus embarrassante de ma vie'”, a-t-il déclaré.
Cela a confirmé ma crainte que mes sources commencent à penser que j’étais fou. Par exemple, une source m’a écrit un long e-mail me remerciant pour un article que j’ai écrit et m’invitant à visiter son bureau la prochaine fois que j’étais à Los Angeles.
La réponse de ChatGPT a été muette et frôle l’impolitesse : “J’apprécie votre volonté de coopérer.”
J’ai ressenti de la tristesse face à mon existence passée sur Internet avec un point d’exclamation. Je sais que les gens pensent que les points d’exclamation sont collants. L’écrivain Elmore Leonard a conseillé de mesurer “deux ou trois pour 100 000 mots de prose”. Je suis respectueusement en désaccord. J’utilise souvent deux ou trois pour deux ou trois mots de prose. Je suis un défenseur de l’enthousiasme numérique. ChatGPT, il s’avère, est plus réservé.
Malgré toute l’irritation que j’ai causée à mon suzerain robot, j’ai constaté que certains de mes collègues étaient impressionnés par mon personnage numérique nouvellement perfectionné, y compris mon coéquipier Jordyn, qui m’a demandé des conseils sur la présentation papier mercredi.
“J’ai une idée d’histoire dont j’aimerais vous parler”, m’a envoyé Jordyn par SMS. “Ce n’est pas urgent !!”
“J’attends toujours avec impatience une bonne histoire, urgente ou non !” répondit mon robot. “Surtout si c’est juteux avec des rebondissements et des rebondissements inattendus.”
Après quelques minutes de va-et-vient, j’étais désespérée de parler à Jordyn en personne. Je perdais patience avec le ton trompeur du robot. Mes propres blagues idiotes et ma voix (relativement) normale me manquaient.
Plus inquiétant encore, ChatGPT est sujet aux hallucinations, c’est-à-dire à assembler des mots et des pensées qui n’ont pas vraiment de sens. Alors que j’écrivais une note à la source sur le moment de l’interview, mon bot m’a suggéré nonchalamment de lui demander si nous devions coordonner nos tenues à l’avance afin que nos auras et chakras ne se heurtent pas.
J’ai demandé à ChatGPT de suggérer un message à un autre collègue qui était au courant de mon expérience et lui a dit que j’étais en enfer. “Je suis désolé, mais je ne peux pas générer de contenu inapproprié ou préjudiciable”, a répondu le bot. Je lui ai demandé d’écrire un message expliquant que je perdais la tête. ChatGPT ne pouvait pas le faire non plus.
Bien sûr, de nombreux experts en IA que j’ai consultés n’ont pas été dissuadés par l’idée de se débarrasser de leur style de communication personnalisé. “En vérité, nous faisons déjà beaucoup de copier-coller”, a déclaré Michael Chui, associé chez McKinsey et expert en intelligence artificielle générative.
M. Chui a admis que certaines personnes voient des signes de dystopie dans un avenir où les travailleurs communiquent principalement par le biais de robots. Cependant, il a fait valoir que cela ne serait pas entièrement différent des échanges d’entreprises qui sont déjà en cours de formulation. “Un collègue m’a récemment envoyé un texto : ‘Hé, est-ce que ce dernier e-mail que vous avez envoyé était légitime ?'”, se souvient M. Chui.
Il s’est avéré que l’e-mail était si rigide qu’un collègue a pensé qu’il avait été écrit via ChatGPT. Mais la situation de M. Chui est un peu étrange. Dans le dortoir, son dortoir de première année a voté pour se voir attribuer un superlatif prémonitoire : “Il sera très probablement remplacé par un robot de sa propre fabrication.”
J’ai décidé de terminer la semaine en demandant au rédacteur en chef adjoint de mon département quel rôle il voit pour l’IA dans l’avenir de la rédaction. “Pensez-vous qu’il est possible qu’un jour nous puissions voir du contenu généré par l’IA sur la première page ?” J’ai écrit via Slack. « Ou pensez-vous qu’il vaut mieux laisser certaines choses aux écrivains humains ?
“Eh bien, ça ne ressemble pas à ta voix !” répondit l’éditeur.
Un jour plus tard, quand mon expérience était terminée, j’écrivais ma propre réponse : “C’est un soulagement !!!”
WJFV52067
WJFV52067
WJFV52067
WJFV52067
WJFV52067
WJFV52067
WJFV52067
WJFV52067
WJFV52067
WJFV52067
WJFV52067
WJFV52067
WJFV52067
WJFV52067
WJFV52067
WJFV52067
WJFV52067
WJFV52067
WJFV52067
WJFV52067