Logiciel

Pour animer l'IA à comprendre le sarcasme, devons-nous enseigner l'empathie tout d'abord ?

Avez-vous déjà fait un commentaire sarcastique et trouve de l'autre partie ne comprends pas ou il a pris le mauvais sens. Cela n'arrive que souvent face à face, parfois, mais c'est assez rare. Il peut arriver entre gens de différentes cultures assez - faciles en raison des langages corporels légèrement différentes ou une personne ne comprend pas bien la langue. Il arrive parfois sur le téléphone aussi, un peu plus souvent, mais généralement pas parmi les amis qui comprennent de l'autre point de vue, maniérismes, inflexions de voix et les croyances.

Il se passe plus avec courriel, tweets, messages texte et autres. Oui, ces outils sont très utiles, mais également problématique lorsqu'il s'agit de sarcasme. Nous allons parler de tout cela doit nous ? La raison en j'ai lu un article intéressant dans le Medical Express (nouvelles en ligne) récemment intitulé ; « Empathie aide les enfants à comprendre le sarcasme, » publié le 8 octobre 2013 que noté ;

"Plus les compétences d'empathie des enfants, il est facile pour eux de reconnaître le sarcasme, selon une nouvelle étude dans la revue libre accès Frontiers en psychologie" et "pour les enfants, langage sarcastique peut être difficile à comprendre. Ils commencent généralement à reconnaître le sarcasme entre louanges sarcastique âgés de 6 et 8, particulièrement familiers tels que "Merci beaucoup!" et "Nice va!" Mais certains enfants prennent beaucoup plus de temps pour commencer à comprendre le sarcasme, avec détection améliorant même jusqu'à l'adolescence. »

Bon, si cela est vrai alors je voudrais demander les programmeurs de l'Intelligence artificielle ; est-il raisonnable d'utiliser cette connaissance pour nous aider dans la programmation de l'IA ? Vous vous souvenez du film 2013 « Elysium » où le personnage principal utilisé sarcasme quand harcelés par des sentinelles robotiques qui étaient à l'écoute en ligne et de leur comportement humain ? Si vous ne me souviens pas qui, la scène est dans le trailer officiel du film YouTube Elysium. Alors maintenant, les robots avaient « Sans empathie », qui faisait partie du point du film en fait, les riches dans leur habitat de luxe en orbite n'a pas beaucoup de soin sur les pauvres, la maladie ou le désespoir.

Ainsi donc, si les robots ne comprennent pas l'empathie et si ce rapport dans les frontières au Journal de la psychologie est correct, et je pars du principe qu'ils ont données empiriques à l'appui, alors ce film de science-fiction a-t-il fait une erreur ? Ou étaient les futurs programmeurs assez habiles pour programmer les fonctionnalités de sarcasme et ensuite programmer ou supprimer sur l'empathie des composants de programmation par la suite ? Intéressante question, n'est-il pas ?

Avec AI des assistants, dictée vocale, logiciels de traduction et peines de communication brève de type tir rapide, vous pouvez voir pourquoi il faudra plus de compétences en programmation de logiciels. S'il vous plaît examiner tout cela et penser à ce sujet.