Avete mai fatto un commento sarcastico e trovato l'altra parte non ha capito o ha preso la strada sbagliata. Non accade che spesso faccia a faccia, a volte, ma che è piuttosto raro. Può succedere tra persone di diverse culture abbastanza - facile dovuto leggermente diversi linguaggi del corpo, o una persona non capisce bene la lingua. A volte succede al telefono troppo, un po' più spesso, ma solitamente non tra amici che capire di altro punto di vista, manierismi, inflessioni vocali e credenze.
Sta accadendo più con email, tweet, messaggi di testo e tali. Sì, questi strumenti sono molto utili, ma anche problematico quando si tratta di sarcasmo. Parliamone tutti noi? Il motivo è che ho letto un interessante articolo in Medical Express (news online) recentemente intitolato; "Empatia aiuta i bambini a capire il sarcasmo," pubblicato su 8 ottobre 2013 che ha osservato;
"Maggiore la capacità di empatia dei bambini, più facile è per loro di riconoscere sarcasmo, secondo un nuovo studio sulla rivista open access frontiere in psicologia", e "per bambini, lingua sarcastico può essere difficile da capire. Generalmente cominciano a riconoscere il sarcasmo tra lode sarcastico Evo 6 e 8, soprattutto familiari quali "Grazie!" e "Bello andare!" Ma alcuni bambini richiedono molto più tempo per iniziare a capire il sarcasmo, con rilevamento migliorando anche attraverso l'adolescenza."
Va bene così, se questo è vero, allora vorrei chiedere i programmatori di intelligenza artificiale; ha senso usare questa conoscenza per aiutarci nella programmazione di AI? Vi ricordate il film 2013 "Elysium", dove il personaggio principale utilizzato sarcasmo quando essere molestata da sentinelle robotiche che erano quelli in linea e loro comportamento umano di monitoraggio? Se non ricordo di che, la scena è nel trailer ufficiale del film YouTube per Elysium. Ora poi, il robot aveva "No empatia", che era in realtà parte del punto del film, i ricchi nei loro habitat orbitante di lusso non ha molta cura sui poveri, malattia o disperazione.
E allora, se il robot non capivo empatia e se è corretto questo report nelle frontiere nel giornale di psicologia, e sto assumendo che hanno dati empirici di backup, poi ha fatto quel film di fantascienza commette un errore? O erano i futuri programmatori abbastanza abili a programmare le funzionalità di sarcasmo e quindi programmare o eliminare fuori la programmazione di componenti in seguito di empatia? Interessante domanda, vero?
Con Ia assistenti, Dettatura vocale, software di traduzione e frasi di fuoco rapido tipo breve comunicazione, si può vedere perché saranno necessari più abilità nella programmazione del software. Si prega di considerare tutto questo e credo che su di esso.