Voui mais c'est l'IA d'aujourd'hui...
A la naissance de l'IA (Intelligence Artificielle) on créait des programmes apprenants, des systèmes experts qui, par expérience, se construisaient, établissaient leur règle logique. C'était long... Les machines ne suivaient pas et l'on a cru ne pas pouvoir y arriver.
Aujourd'hui vu la masse de données que les moteurs d'inférences ingèrent ce n'est même plus de l'apprentissage terrain c'est une énorme expérience qui est ingurgité d'un coup.
Après cela dépend du modèle de donnée que l'on donne au système expert car il faut encore catégoriser. (pour exemple les traducteurs catégorisent suivant le contexte)
Demain c'est l'IA qui catégorisera et avec la logique floue arrivera même à simuler l'instinct humain.
Quand les sentiments seront également appris par la machine, l'ego signifiera la fin des humains.
Ceci écrit, le logiciel qui remplacera avantageusement le coach est aussi pour demain, comme celui qui va remplacer le médecin (des tests de cabine "photomaton" qui vous analyse et donnent une ordonnance ont été faites en Asie du sud est, la télémedecine est déjà d'actualité)
Et a contrario, en BF4 avec Thierry Gautier (coach d'Alexis Vastine, Creps de Bourges) voire avec Claude Colombo (ancien responsable Département Sport de Haut Niveau - CREPS de Nancy) en BF3 on voit que les plannif macro et micro cycle à la Matveev sont soit à jeter aux orties pour l'un, soit à transformer en mode bloc pour l'autre. Le jour ou la planification prendra en compte les pics du boulot, l'agenda des enfants, les états d'ames du conjoint.e, en plus des objectifs et des paramètres de forme actuels, le coaching ne sera plus qu'une affaire de mental...
Malgré tout, il faudra encore que l'athlète nage, pédale et court !
L'Papy_
PS : ce n'est pas parce que la cpu décentralisée coute cher, que le flux de données est énorme en central, c'est que les capteurs qui se multiplient sur techno Lora ou Sigfox (Bouygues ou Orange), sont primitif. Ils envoient des données de quelques Ko sur de longues distances (jusqu'à 300m sous terre) pour un coup financier et énergétique modique. Après les logiciels se doivent d'être performant pour analyser ces milliard d'infos, voire plus pour certains, qu'ils recoivent. C'est le big data avec l'IOT (Internet Of Thing)