ROTHSCHILD A BREVETÉ LES TESTS BIOMÉTRIQUES COVID-19 EN 2015 et 2017

2
9315

un article difficile mais nécessaire.

De la part de notre amie Nicole :

  • La Déclaration des droits de l’homme et du citoyen/Les lois d’obligation sont anticonstitutionnelle(26 aout 1789 et 10 décembre 1948)
  • La Convention européenne des droits de l’homme (4 novembre 1950)
  • La Constitution française (4 novembre 1958)
  • La résolution 36-55 de l’ONU (25 novembre 1981)
  • La loi sur le respect du corps humain insérée dans le Code Civil, Art. 16-1 et suivants (29 juillet 1994)
  • La loi Barnier sur le principe de précaution (2 février 1995)
  • Le Code de déontologie médicale inséré dans le Code de la santé publique, art. R 4127-2 et R 4127-36 (6 septembre 1995)
  • La convention européenne pour la protection des Droits de l’Homme et de la dignité de l’être humain à l’égard des applications de la biologie et de la médecine: Convention sur les Droits de l’Homme et la biomédecine ou Convention d’Oviedo       (4 avril 1997)
  • La charte des droits fondamentaux de l’Union Européenne (18 décembre 2000, art. 3)
  • La loi Kouchner insérée dans le code de la santé publique, Art. L 1111-4 (4 mars 2002

Le , par Silviu «Silview» Costinescu_ 

https://silview.media/2020/10/04/atomic-bombshell-rothschilds-patented-covid-19-biometric-tests-in-2015-and-2017/

Ce n’est pas contestable, puisque les informations proviennent de registres officiels des brevets aux Pays-Bas et aux États-Unis. Et nous avons toute la documentation

GRANDES MISES À JOUR : 3e dépôt trouvé avec des PREUVES IRRÉFUTABLES DE PRÉ-PLANIFICATION!

Comme nous l’avons montré dans les expositions précédentes, toute la Covidiocratie est une mascarade et une simulation préparée depuis longtemps par la Banque mondiale / FMI / Les Rothschild et leurs lemmings, avec le partenariat Rockefeller.
Nos dernières découvertes viennent compléter ces révélations précédentes.

PREMIÈRE IMMATRICULATION: PAYS-BAS, 2015

Source: Dutch Government patent regitry website

Info (copie textuelle) :

L’invention porte sur un procédé pour acquérir et transmettre des données biométriques (par exemple, des signes vitaux) d’un utilisateur, les données étant analysées pour déterminer si l’utilisateur souffre d’une infection virale, telle que COVID-19. Le procédé comprend l’utilisation d’un oxymètre de pouls pour acquérir au moins le pourcentage de saturation en oxygène du pouls et du sang, qui est transmis sans fil à un smartphone. 

Pour s’assurer que les données sont exactes, un accéléromètre intégré au smartphone est utilisé pour mesurer le mouvement du smartphone et / ou de l’utilisateur. 

Une fois les données précises acquises, elles sont téléchargées sur le cloud (ou l’hôte), où les données sont utilisées (seules ou avec d’autres signes vitaux) pour déterminer si l’utilisateur souffre (ou risque de souffrir) d’une infection virale, comme COVID-19. En fonction des besoins spécifiques, les données, leurs modifications,

DEUXIÈME ENREGISTREMENT: NOUS, 2015

Informations détaillées ci-dessous.

TÉLÉCHARGER À PARTIR DE GOOGLE BREVETS (PDF)

UN DÉTAIL CLÉ M’A FRAPPÉ SUR CES INSCRIPTIONS :

les
deux ont été déposés et mis à jour il y a des années, mais ils devaient être rendus publics en septembre 2020.

C’est une preuve suffisante qu’ils savaient en 2015 ce qui allait se passer en septembre 2020!

TROISIÈME ENREGISTREMENT: ÉTATS-UNIS, 2017 (ACTUALISATION À PARTIR DE 2015)

Source

Avant de présenter les détails techniques du brevet, examinons le Facebook de l’inventeur un instant :

Avez-vous remarqué quelque chose?

Informations sur les brevets (copie textuelle):

Titre: Système et méthode d’utilisation, biométriques et d’affichage de données biométriques Demande de brevet des États-Unis 20170229149 Code de type: A1

Résumé :

– L’invention concerne une méthode pour traiter et afficher les données biométriques d’un utilisateur, soit seules, soit ensemble (en synchronisation) avec d’autres données, telles que les données vidéos de l’utilisateur pendant une période pendant laquelle les données biométriques ont été acquises. 

Le procédé comprend le stockage de données biométriques de sorte qu’elles soient liées à un identifiant et au moins un horodatage (par exemple, une heure de début, une fréquence d’échantillonnage, etc.), et le stockage de données vidéo de manière à ce qu’elles soient liées à l’identifiant et à au moins un horodatage (par exemple, une heure de début). 

En stockant des données de cette manière, les données biométriques peuvent être affichées (en temps réel ou différées) en synchronisation avec les données vidéo, et les données biométriques peuvent être recherchées pour identifier au moins un événement biométrique. La vidéo correspondant à l’événement biométrique peut alors être affichée,


Inventeurs: Rothschild, Richard A. (Londres, GB)
Macklin, Dan (Stafford, GB)
Slomkowski, Robin S. (Eugene, OR, US)
Harnischfeger, Taska (Eugene, OR, US)
Numéro de demande: 15/495485
Date de publication : 08/10/2017
Date de dépôt: 24/04/2017 Export Citation: Cliquer pour la génération automatique de bibliographie
Destinataire:
Rothschild Richard A.
Macklin Dan
Slomkowski Robin S.
Harnischfeger Taska
Classes internationales: G11B27 / 10 ; G06F19 / 00 ; G06K9 / 00 ; G11B27 / 031 ; H04N5 / 77
Voir les images de brevets: Télécharger le PDF 20170229149  

Références de brevets américains:

20160035143N/A2016-02-04
20140316713N/A2014-10-23
20140214568N/A2014-07-31
20090051487N/A2009-02-26
20070189246N/A2007-08-16

Examinateur principal: MESA, JOSE M Avocat, agent ou cabinet : Fitzsimmons IP Law (Gardena, CA, États-Unis)
Réclamations: Ce qui est réclamé est:

1. Procédé d’identification d’une vidéo correspondant à un événement biométrique d’un utilisateur, ladite vidéo étant affichée avec au moins une biométrique dudit utilisateur pendant ledit événement biométrique, comprenant : la réception d’une requête pour démarrer une session; utiliser au moins un programme fonctionnant sur un dispositif mobile pour attribuer un numéro de session et une heure de début à ladite session; recevoir des données vidéo d’une caméra, lesdites données vidéo comprenant la vidéo d’au moins l’un dudit utilisateur et de l’environnement dudit utilisateur pendant une période de temps, ladite période de temps commençant à ladite heure de début; recevoir des données biométriques d’un capteur, lesdites données biométriques comprenant une pluralité de valeurs sur une biométrique dudit utilisateur pendant ladite période de temps ; utiliser ledit au moins un programme pour lier au moins ledit numéro de session et ladite heure de début auxdites données vidéo; utiliser ledit au moins un programme pour lier au moins ledit numéro de session, ladite heure de début et une fréquence d’échantillonnage auxdites données biométriques, au moins ledit numéro de session étant utilisé pour relier lesdites données biométriques auxdites données vidéo, et au moins ladite fréquence d’échantillonnage et ladite heure de début étant utilisée pour lier des valeurs individuelles de ladite pluralité de valeurs à des heures individuelles dans ladite période de temps; recevoir ledit événement biométrique, ledit événement biométrique comprenant l’un parmi une valeur et une plage dudit événement biométrique; utiliser ledit au moins un programme pour identifier une première de ladite pluralité de valeurs correspondant audit événement biométrique; utiliser ledit au moins un programme et au moins ladite heure de début, ladite fréquence d’échantillonnage et ladite période de temps pour identifier une première fois dans ladite période de temps correspondant à ladite première de ladite pluralité de valeurs;

2. Procédé selon la revendication 1, dans lequel ladite étape de réception de données biométriques dudit capteur comprend en outre la réception de données de fréquence cardiaque d’un moniteur de fréquence cardiaque.

3. Procédé selon la revendication 1, dans lequel lesdites étapes de liaison dudit numéro de session auxdites données vidéo et auxdites données biométriques comprennent en outre la liaison d’un numéro d’activité à la fois auxdites données vidéo et auxdites données biométriques, dans lequel ledit numéro d’activité identifie l’un d’une pluralité de activités, ladite session comprend ladite pluralité d’activités, et à la fois ledit numéro de session et ledit numéro d’activité sont utilisés pour relier lesdites données biométriques auxdites données vidéo.

4. Procédé selon la revendication 1, dans lequel ladite étape d’attribution d’un numéro de session à ladite session comprend en outre la liaison d’une description de ladite session à ladite session.

5. Procédé selon la revendication 1, dans lequel lesdites étapes de réception de données vidéo et de données biométriques comprennent en outre la réception desdites données vidéo et desdites données biométriques pendant ladite période de temps.

6. Procédé selon la revendication 1, dans lequel ladite étape de réception de données vidéo depuis une caméra comprend en outre la réception desdites données vidéo depuis ladite caméra après ladite période de temps.

7. Procédé selon la revendication 6, comprenant en outre l’étape d’analyse desdites données vidéo pour un identifiant identifiant ladite session, ledit identifiant étant utilisé par ledit au moins un programme pour lier ledit numéro de session auxdites données vidéo.

8. Procédé selon la revendication 1, dans lequel lesdites étapes d’identification d’une première de ladite pluralité de valeurs correspondant audit événement biométrique et d’identification d’une première heure correspondant à ladite première de ladite pluralité de valeurs comprennent en outre l’identification de chacune de ladite pluralité de valeurs. des valeurs correspondant audit événement biométrique et identifiant chaque fois correspondant à chacune de ladite pluralité de valeurs.

9. Procédé selon la revendication 8, dans lequel ladite étape d’affichage d’au moins lesdites données vidéo pendant ledit premier temps comprend en outre l’affichage d’au moins lesdites données vidéo pendant ledit chaque instant correspondant à chacune de ladite pluralité de valeurs, dans lequel ledit chaque fois est utilisé pour montrer chacune de ladite pluralité de valeurs en synchronisation avec des parties desdites données vidéo qui montrent au moins l’un des environnements dudit utilisateur et dudit utilisateur pendant ledit événement biométrique.

10. Procédé selon la revendication 1, comprenant en outre les étapes consistant à recevoir des données d’auto-réalisation dudit utilisateur, et à lier au moins ledit numéro de session et au moins une fois auxdites données d’auto-réalisation, dans lequel lesdites données d’auto-réalisation indiquent comment ledit l’utilisateur ressent pendant ladite au moins une fois, et ladite au moins une fois est utilisée pour afficher lesdites données d’auto-réalisation en synchronisation avec au moins une partie desdites données vidéo.

11. Système d’identification de vidéo correspondant à un événement biométrique d’un utilisateur, ladite vidéo étant affichée avec au moins une biométrique dudit utilisateur lors dudit événement biométrique, comprenant : au moins un serveur en communication avec un réseau étendu (WAN) ; un dispositif mobile en communication avec ledit au moins un serveur via ledit WAN, ledit dispositif mobile comprenant: un affichage; au moins un processeur pour télécharger des instructions lisibles par machine à partir dudit au moins un serveur; 

et au moins un dispositif de mémoire pour stocker lesdites instructions lisibles par machine, lesdites instructions lisibles par machine étant adaptées pour exécuter les étapes de :

réception d’une demande de démarrage d’une session; 

attribuer un numéro de session et une heure de début à ladite session; 

recevoir des données vidéo d’une caméra, lesdites données vidéo comprenant la vidéo d’au moins l’un dudit utilisateur et de l’environnement dudit utilisateur pendant une période de temps; 

recevoir des données biométriques d’un capteur, lesdites données biométriques comprenant une pluralité de valeurs sur une biométrique dudit utilisateur pendant ladite période de temps; 

lier au moins ledit numéro de session et ladite heure de début auxdites données vidéo; lier au moins ledit numéro de session, ladite heure de début et une fréquence d’échantillonnage auxdites données biométriques, au moins ledit numéro de session étant utilisé pour relier lesdites données biométriques aux dites données vidéo, et au moins ladite fréquence d’échantillonnage et ladite heure de début étant utilisées pour lier des valeurs individuelles de ladite pluralité de valeurs à des instants individuels dans ladite période de temps; 

recevoir ledit événement biométrique, ledit événement biométrique comprenant l’un parmi une valeur et une plage dudit événement biométrique; 

identifier une première de ladite pluralité de valeurs correspondant audit événement biométrique; 

identifier une première fois dans ladite période de temps correspondant à ladite première de ladite pluralité de valeurs; 

et afficher sur ledit affichage au moins lesdites données vidéo pendant ladite première fois avec ladite première de ladite pluralité de valeurs, dans lequel ladite première fois est utilisée pour montrer ladite première de ladite pluralité de valeurs en synchronisation avec une partie desdites données vidéo qui montre au moins l’un des environnements dudit utilisateur et dudit utilisateur pendant ledit événement biométrique.

12. Système selon la revendication 11, dans lequel ladite étape de réception de données biométriques provenant dudit capteur comprend en outre la réception de données de fréquence cardiaque à partir d’un moniteur de fréquence cardiaque.

13. Système selon la revendication 11, dans lequel lesdites étapes de liaison dudit numéro de session auxdites données vidéo et auxdites données biométriques comprennent en outre la liaison d’un numéro d’activité à la fois auxdites données vidéo et auxdites données biométriques, dans lequel ledit numéro d’activité identifie l’un d’une pluralité de activités, ladite session comprend ladite pluralité d’activités, et à la fois ledit numéro de session et ledit numéro d’activité sont utilisés pour relier lesdites données biométriques auxdites données vidéo.

14. Système selon la revendication 11, dans lequel lesdites étapes de réception de données vidéo et de données biométriques comprennent en outre la réception desdites données vidéo et desdites données biométriques pendant ladite période de temps.

15. Système selon la revendication 11, dans lequel ladite étape de réception de données vidéo d’une caméra comprend en outre la réception desdites données vidéo de ladite caméra après ladite période de temps.

16. Système selon la revendication 15, dans lequel lesdites instructions lisibles par machine sont en outre adaptées pour effectuer l’étape d’analyse desdites données vidéo pour un code à barres, ledit code à barres identifiant ledit numéro de session et étant utilisé pour lier ledit numéro de session auxdites données vidéo.

17. Système selon la revendication 11, dans lequel lesdites étapes consistant à identifier une première de ladite pluralité de valeurs correspondant audit pair biométrique et à identifier une première fois correspondant à ladite première de ladite pluralité de valeurs comprennent en outre l’identification de chacune de ladite pluralité de valeurs. des valeurs correspondant audit événement biométrique et identifiant chaque fois correspondant à chacune de ladite pluralité de valeurs.

18. Système selon la revendication 17, dans lequel ladite étape d’affichage d’au moins lesdites données vidéo pendant ledit premier temps comprend en outre l’affichage d’au moins lesdites données vidéo pendant ledit chaque instant correspondant à chacune de ladite pluralité de valeurs, dans lequel ledit chaque fois est utilisé pour montrer chacune de ladite pluralité de valeurs en synchronisation avec des parties desdites données vidéo qui montrent au moins l’un des environnements dudit utilisateur et dudit utilisateur pendant ledit événement biométrique.

19. Système selon la revendication 11, dans lequel lesdites instructions lisibles par machine sont en outre adaptées pour exécuter les étapes de réception des données d’auto-réalisation dudit utilisateur, et de liaison dudit numéro de session et au moins une fois auxdites données d’auto-réalisation, dans lequel ledit auto – les données de réalisation indiquent ce que ledit utilisateur ressent pendant ladite au moins une fois, et ladite au moins une fois est utilisée pour afficher lesdites données d’auto-réalisation en synchronisation avec au moins une partie desdites données vidéo.

20. Procédé pour afficher une vidéo en synchronisation avec au moins une biométrique d’un sujet, comprenant: l’utilisation d’au moins un programme fonctionnant sur un dispositif informatique pour attribuer un numéro de session et une heure de début à ladite session; recevoir des données vidéo d’au moins une caméra, lesdites données vidéo comprenant la vidéo d’au moins l’un dudit sujet et de l’environnement dudit sujet pendant une période de temps; recevoir des données biométriques d’au moins un capteur, lesdites données biométriques comprenant une pluralité de valeurs sur au moins une biométrique dudit sujet pendant ladite période de temps; utiliser ledit au moins un programme pour lier au moins ledit numéro de session et ladite heure de début auxdites données vidéo; utiliser ledit au moins un programme pour lier au moins ledit numéro de session, ladite heure de début et au moins une fréquence d’échantillonnage auxdites données biométriques; recevoir un événement biométrique, ledit événement biométrique comprenant l’un d’une valeur et d’une plage dudit au moins un élément biométrique; utiliser ledit au moins un programme pour identifier des valeurs individuelles de ladite pluralité de valeurs correspondant audit événement biométrique; utiliser ledit au moins un programme et au moins ladite heure de début, ladite au moins une fréquence d’échantillonnage et ladite période de temps pour identifier des instants individuels dans ladite période de temps correspondant auxdites valeurs individuelles de ladite pluralité de valeurs; et afficher sur ledit dispositif informatique au moins lesdites données vidéo et lesdites valeurs individuelles de ladite pluralité de valeurs, dans lequel lesdits temps individuels sont utilisés pour montrer lesdits moments individuels de ladite pluralité de valeurs en synchronisation avec des parties desdites données vidéo qui montrent au moins une dudit sujet et de l’environnement dudit sujet pendant ledit événement biométrique.

Description:

RÉFÉRENCE CROISÉE À UNE APPLICATION ASSOCIÉE

Cette application est une continuation de Ser. N ° 15/293211, déposée le 13 octobre 2016, qui revendique la priorité conformément à 35 USC §119 (e) à la demande provisoire américaine n ° 62/240 783, déposée le 13 octobre 2015, dont les demandes sont spécifiquement incorporées ici, dans leur intégralité, par référence.

CONTEXTE DE L’INVENTION

1. Domaine de l’invention

La présente invention concerne la réception et l’utilisation de données biométriques, et plus particulièrement, un système et un procédé pour afficher au moins une biométrique d’un utilisateur avec une vidéo de l’utilisateur à un moment où l’au moins une biométrique est mesurée et / ou reçu.

2. Description de l’art connexe

Récemment, des dispositifs ont été développés qui sont capables de mesurer, détecter ou estimer dans un facteur de forme convenable au moins une ou plusieurs métriques liées à des caractéristiques physiologiques, communément appelées données biométriques. Par exemple, des dispositifs qui ressemblent à des montres ont été développés qui sont capables de mesurer la fréquence cardiaque ou le pouls d’un individu et, en utilisant ces données avec d’autres informations (par exemple, l’âge, le poids, etc. de l’individu), pour calculer une résultante, telle comme le total des calories brûlées par l’individu dans une journée donnée. Des dispositifs similaires ont été développés pour mesurer, détecter ou estimer d’autres types de paramètres, tels que la pression artérielle, les schémas respiratoires, la composition respiratoire, les habitudes de sommeil et le taux d’alcoolémie, pour n’en nommer que quelques-uns.

Alors que les types de dispositifs biométriques continuent de croître, la manière dont les données biométriques sont utilisées reste relativement statique. Par exemple, les données de fréquence cardiaque sont généralement utilisées pour donner à une personne des informations sur son pouls et les calories brûlées. À titre d’autre exemple, les données sur l’alcoolémie sont généralement utilisées pour donner à un individu des informations sur son taux d’alcoolémie et pour lui dire s’il peut ou non conduire un véhicule à moteur en toute sécurité ou légalement. À titre encore un autre exemple, le rythme respiratoire d’un individu (mesurable par exemple soit par le niveau de sonie en décibels, soit par les variations du niveau de décibels sur un intervalle de temps) peut être surveillé par un médecin, une infirmière ou un technicien médical pour déterminer si l’individu souffre d’apnée du sommeil.

Alors que les données biométriques sont utiles en soi, ces données seraient plus informatives ou dynamiques si elles pouvaient être combinées avec d’autres données (par exemple, des données vidéo, etc.), fournies (par exemple, sans fil, sur un réseau, etc.) à un appareil distant et / ou interrogeable (par exemple, permettant d’identifier rapidement certaines conditions, telles qu’une fréquence cardiaque élevée,) et / ou interrogeable (par exemple, en utilisant des données biométriques pour identifier une section vidéo illustrant une caractéristique spécifique, ou vice versa). Ainsi, il existe un besoin pour un système et un procédé efficaces capables d’obtenir au moins certains, voire tous, des avantages ci-dessus, et capables également de fusionner les données générées sous forme automatique ou manuelle par les divers dispositifs, qui utilisent souvent systèmes d’exploitation ou technologies (par exemple, plates-formes matérielles, protocoles, types de données, etc.

Dans certains modes de réalisation de la présente invention, le système et / ou le procédé est configuré pour recevoir, gérer et filtrer la quantité d’informations sur une base opportune et rentable, et pourrait également être d’une valeur supplémentaire grâce à la mesure précise, la visualisation ( par exemple, visualisation synchronisée, etc.), et notification rapide des points de données qui sont en dehors (ou à l’intérieur) d’une plage définie ou prédéfinie.

Un tel système et / ou procédé pourrait être utilisé par un individu (par exemple, un athlète, etc.) ou son entraîneur, entraîneur, etc., pour visualiser l’individu pendant la performance d’un événement sportif (par exemple, jogging, vélo, haltérophilie, etc.) jouer au football, etc.) en temps réel (en direct) ou après, avec les données biométriques mesurées simultanément par l’individu (par exemple, fréquence cardiaque, etc.), et / ou collectées simultanément des «données d’auto-réalisation» ou générées par le sujet données expérientielles, où l’individu saisit ses propres états physiques ou mentaux subjectifs pendant son exercice, sa forme physique ou son activité / entraînement sportif (p. ex., ressentir l’apparition d’une «poussée» d’adrénaline ou d’endorphines dans le système, se sentir fatigué, «avoir un second souffle , » etc.). Cela permettrait à une personne (par exemple, l’individu, le formateur de l’individu, un tiers, etc. ) pour surveiller / observer les caractéristiques psychologiques physiologiques et / ou subjectives d’un individu tout en regardant ou en examinant l’individu dans la performance d’un événement sportif ou d’une autre activité physique. Une telle saisie des données d’auto-réalisation peut être réalisée par diverses méthodes, y compris automatiquement des notes vocales horodatées dans le système, des raccourcis clavier ou des raccourcis clavier sur un téléphone intelligent, une montre intelligente, un bracelet de fitness activé, ou toute autre méthode d’entrée liée au système qui est commode pour l’individu à utiliser afin de ne pas gêner (ou aussi peu que possible) le flux et la pratique par l’individu de l’activité en cours.

Un tel système et / ou procédé faciliterait également, par exemple, l’observation et le diagnostic à distance dans les applications de télémédecine, où il y a un besoin pour le personnel médical, ou la partie de surveillance ou le parent, d’avoir une confirmation claire et rapide de l’identité du patient. ou le nourrisson, ainsi que leur condition physique visible, ainsi que leurs données biométriques et / ou de réalisation de soi générées simultanément.

En outre, le système et / ou la méthode devraient également fournir au sujet, ou à la partie de surveillance, un moyen d’utiliser l’indexation vidéo pour comparer, cartographier et évaluer efficacement et intuitivement les données du sujet, à la fois par rapport à son propre historique biométrique et / ou par rapport à d’autres des échantillons de données des sujets, ou des comparables démographiques, indépendamment des plates-formes ou applications d’exploitation utilisées pour générer les informations biométriques et vidéo. En étant capable de filtrer / rechercher des événements particuliers (par exemple, des événements biométriques, des événements d’auto-réalisation, des événements physiques, etc.), les données acquises peuvent être réduites ou modifiées (par exemple, pour créer une «bobine de surbrillance», etc. ) tout en maintenant la synchronisation entre les segments vidéo individuels et les données mesurées et / ou collectées (par exemple, données biométriques, données d’auto-réalisation, données GPS, etc.).

RÉSUMÉ DE L’INVENTION

La présente invention propose un système et un procédé pour utiliser, traiter, indexer, comparer, classer, comparer et afficher des données biométriques, ou une résultante de celles-ci, seuls ou ensemble (par exemple, en synchronisation) avec d’autres données (par exemple, des données vidéo, etc. .). Des modes de réalisation préférés de la présente invention fonctionnent conformément à un dispositif informatique (par exemple, un téléphone intelligent, etc.) en communication avec au moins un dispositif externe (par exemple, un dispositif biométrique pour acquérir des données biométriques, un dispositif vidéo pour acquérir des données vidéo, etc.). Dans un premier mode de réalisation de la présente invention, des données vidéo, qui peuvent inclure des données audio, et des données non vidéo, telles que des données biométriques, sont stockées séparément sur le dispositif informatique et liées à d’autres données, ce qui permet la recherche et la synchronisation de la vidéo. et les données non vidéo.

Dans un mode de réalisation de la présente invention, une application (par exemple, exécutée sur le dispositif informatique, etc.) comprend une pluralité de modules pour exécuter une pluralité de fonctions. Par exemple, l’application peut comprendre un module de capture vidéo pour recevoir des données vidéo d’une caméra interne et / ou externe, et un module de capture biométrique pour recevoir des données biométriques d’un dispositif biométrique interne et / ou externe. La plate-forme client peut également comprendre un module d’interface utilisateur, permettant à un utilisateur d’interagir avec la plate-forme, un module d’édition vidéo pour éditer des données vidéo, un module de gestion de fichiers pour gérer des données, une base de données et un module de synchronisation pour répliquer des données, un module d’algorithme pour le traitement des données reçues, un module de partage pour partager et / ou stocker des données, et un module central de connexion et d’identification pour l’interfaçage avec des sites Web de médias sociaux tiers,

Ces modules peuvent être utilisés, par exemple, pour démarrer une nouvelle session, recevoir des données vidéo pour la session (c’est-à-dire via le module de capture vidéo) et recevoir des données biométriques pour la session (c’est-à-dire via le module de capture biométrique). Ces données peuvent être stockées dans un stockage local, dans une base de données locale et / ou sur un périphérique de stockage distant (par exemple, dans le cloud de l’entreprise ou un service cloud tiers, tel que Dropbox ™, etc.). Dans un mode de réalisation préféré, les données sont stockées de manière à être liées à des informations qui (i) identifient la session et (ii) permettent la synchronisation.

Par exemple, les données vidéo sont de préférence liées à au moins une heure de début (par exemple, une heure de début de session) et un identifiant. L’identifiant peut être un numéro unique identifiant de manière unique la session, ou une pluralité de numéros (par exemple, une pluralité d’identifiants uniques globaux ou universels (GUID / UUID)), où un premier numéro identifiant de manière unique la session et un second numéro identifie de manière unique un activité au sein de la session, permettant à une session d’inclure une pluralité d’activités. L’identifiant peut également inclure un nom de session et / ou une description de session. D’autres informations sur les données vidéo (par exemple, la longueur de la vidéo, la source vidéo, etc.) (c’est-à-dire les «métadonnées vidéo») peuvent également être stockées et liées aux données vidéo. Les données biométriques sont de préférence liées à au moins l’heure de début (par exemple, la même heure de début liée aux données vidéo), l’identifiant (par exemple,

Une fois les données vidéo et biométriques stockées et liées, des algorithmes peuvent être utilisés pour afficher les données ensemble. Par exemple, si les données biométriques sont stockées à une fréquence d’échantillonnage de 30 échantillons par minute (spm), des algorithmes peuvent être utilisés pour afficher une première valeur biométrique (par exemple, sous les données vidéo, superposée sur les données vidéo, etc.) à la début du clip vidéo, une seconde valeur biométrique deux secondes plus tard (deux secondes après le clip vidéo), une troisième valeur biométrique deux secondes plus tard (quatre secondes après le clip vidéo), etc. Dans des modes de réalisation alternatifs de la présente invention, non- les données vidéo (par exemple, les données biométriques, les données d’auto-réalisation, etc.) peuvent être stockées avec une pluralité d’horodatages (par exemple, des tampons individuels ou des décalages pour chaque valeur stockée, ou des fréquences d’échantillonnage individuelles pour chaque type de données),

Dans un mode de réalisation de la présente invention, le dispositif biométrique peut comprendre un capteur pour détecter des données biométriques, un affichage pour créer une interface avec l’utilisateur et afficher diverses informations (par exemple, des données biométriques, des données de configuration, des données de fonctionnement, telles que démarrage, arrêt , et pause, etc.), une mémoire pour stocker les données biométriques détectées, un émetteur-récepteur pour communiquer avec l’exemple de dispositif informatique, et un processeur pour faire fonctionner et / ou piloter l’émetteur-récepteur, la mémoire, le capteur et l’affichage. 

L’exemple de dispositif informatique comprend un émetteur-récepteur ( 1) pour recevoir des données biométriques provenant de l’exemple de dispositif biométrique, une mémoire pour stocker les données biométriques, un affichage pour interagir avec l’utilisateur et afficher diverses informations (par exemple, données biométriques, données de configuration, données de fonctionnement, telles que démarrage, arrêt, et mettre en pause, saisir des commentaires en session ou ajouter des notes vocales, etc.), un clavier (ou une autre entrée utilisateur) pour recevoir des données d’entrée utilisateur, un émetteur-récepteur ( 2 ) pour fournir les données biométriques au dispositif informatique hôte via Internet, et un processeur pour faire fonctionner et / ou piloter l’émetteur-récepteur ( 1 ), l’émetteur-récepteur ( 2 ), le clavier, l’affichage et la mémoire.

Le clavier (ou autre périphérique d’entrée) dans le dispositif informatique, ou alternativement le clavier (ou autre périphérique d’entrée) dans le dispositif biométrique, peut être utilisé pour entrer des données d’auto-réalisation, ou des données sur la façon dont l’utilisateur se sent à un moment donné. Par exemple, si l’utilisateur se sent fatigué, l’utilisateur peut entrer le «T» sur le clavier. Si l’utilisateur sent que ses endorphines entrent en jeu, l’utilisateur peut entrer le «E» sur le clavier. Et si l’utilisateur obtient son second souffle, l’utilisateur peut entrer le «S» sur le clavier. 

Alternativement, pour faciliter davantage l’utilisation pendant l’exercice ou l’activité sportive, les touches de code court telles que «T», «E» et «S» peuvent être préaffectées, comme les numéros de téléphone abrégés pour les contacts fréquemment appelés sur un smart téléphone, etc., qui peut être sélectionné manuellement ou à l’aide de la reconnaissance vocale. 

Ces données (par exemple, l’entrée ou sa représentation) est ensuite stockée et liée à une fréquence d’échantillonnage (comme les données biométriques) ou à des données d’horodatage, qui peuvent être une heure ou un décalage par rapport à l’heure de début à laquelle chaque bouton a été enfoncé. Cela permettrait aux données d’auto-réalisation d’être synchronisées avec les données vidéo. Cela permettrait également de rechercher ou de filtrer les données d’auto-réalisation, comme les données biométriques (par exemple, afin de trouver une vidéo correspondant à un événement particulier, comme lorsque l’utilisateur a commencé à se sentir fatigué, etc.).

Dans un autre mode de réalisation de la présente invention, le dispositif informatique (par exemple, un téléphone intelligent, etc.) est également en communication avec un dispositif informatique hôte via un réseau étendu («WAN»), tel qu’Internet. Ce mode de réalisation permet au dispositif informatique de télécharger l’application à partir du dispositif informatique hôte, de décharger au moins certaines des fonctions identifiées ci-dessus vers le dispositif informatique hôte et de stocker des données sur le dispositif informatique hôte (par exemple, autoriser des données vidéo, seules ou synchronisées aux données non vidéo, telles que les données biométriques et les données d’auto-réalisation, à visualiser par un autre appareil en réseau). Par exemple, le logiciel fonctionnant sur le dispositif informatique (par exemple, l’application, le programme, etc.) peut permettre à l’utilisateur de lire les données vidéo et / ou audio, mais pas de synchroniser les données vidéo et / ou audio avec les données biométriques. . Cela peut être dû au fait que le dispositif informatique hôte est utilisé pour stocker des données essentielles à la synchronisation (index d’horodatage, métadonnées, données biométriques, fréquence d’échantillonnage, etc.) et / ou qu’un logiciel fonctionnant sur le dispositif informatique hôte est nécessaire pour la synchronisation. A titre d’autre exemple, le logiciel fonctionnant sur le dispositif informatique peut permettre à l’utilisateur de lire les données vidéo et / ou audio, soit seul, soit synchronisé avec les données biométriques, mais peut ne pas autoriser le dispositif informatique (ou peut limiter les capacité) de rechercher ou d’extrapoler à partir de, ou de traiter les données biométriques pour identifier les parties pertinentes (par exemple, qui peuvent être utilisées pour créer une «bobine de surbrillance» des données vidéo / audio / biométriques synchronisées) ou pour classer les données vidéo.

Dans un mode de réalisation de la présente invention, les données vidéo, qui peuvent également inclure des données audio, commencent à un instant «T» et se poursuivent pendant une durée de «n». Les données vidéo sont de préférence stockées en mémoire (localement et / ou à distance) et liées à d’autres données, telles qu’un identifiant, une heure de début et une durée. Ces données relient les données vidéo à au moins une session particulière, une heure de début particulière, et identifient la durée de la vidéo qui y est incluse. Dans un mode de réalisation de la présente invention, chaque session peut inclure différentes activités. Par exemple, un voyage à Berlin un jour (session) particulier peut impliquer une balade à vélo dans la ville (première activité) et une promenade dans un parc (deuxième activité). Ainsi, l’identifiant peut comprendre à la fois un identifiant de session, identifiant de manière unique la session via un identifiant globalement unique (GUID),

Dans un mode de réalisation de la présente invention, les données biométriques sont stockées en mémoire et liées à l’identifiant et à une fréquence d’échantillonnage «m». Cela permet aux données biométriques d’être liées aux données vidéo lors de la lecture. Par exemple, si l’identifiant est un, l’heure de début est 13h00, la durée de la vidéo est d’une minute et la fréquence d’échantillonnage est de 30 spm, alors la lecture de la vidéo à 14h00 entraînera la première valeur biométrique à être affiché (par exemple, sous la vidéo, sur la vidéo, etc.) à 14h00, la deuxième valeur biométrique à afficher (par exemple, sous la vidéo, sur la vidéo, etc.) deux secondes plus tard, et ainsi de suite jusqu’à la vidéo se termine à 14h01. Alors que les données d’auto-réalisation peuvent être stockées comme des données biométriques (par exemple, liées à une fréquence d’échantillonnage), si ces données ne sont reçues que périodiquement, il peut être plus avantageux de stocker ces données liées à l’identifiant et à un horodatage, où «m» est soit l’heure à laquelle les données d’auto-réalisation ont été reçues, soit un décalage entre cette heure et l’heure de début (par exemple, dix minutes et quatre secondes après l’heure de début, etc.). En stockant les données vidéo et non vidéo séparément les unes des autres, les données peuvent être facilement recherchées et synchronisées.

  • En ce qui concerne la liaison des données à un identifiant, qui peut être lié à d’autres données (par exemple, heure de début, fréquence d’échantillonnage, etc.), si les données sont reçues en temps réel, les données peuvent être liées au (x) identifiant (s) pour la session (et / ou l’activité) en cours. 

Cependant, lorsque des données sont reçues après coup (par exemple, après la fin d’une session), il existe plusieurs façons dont les données peuvent être liées à une session et / ou une activité particulière (ou un ou plusieurs identifiants associés). 

En ce qui concerne ce dernier, cela peut être accompli, par exemple, en comparant la durée des données reçues (par exemple, la longueur de la vidéo) avec la durée de la session et / ou de l’activité, en supposant que les données reçues sont liées au session et / ou activité la plus récente, ou en analysant les données incluses dans les données reçues. Par exemple, dans un mode de réalisation, les données incluses avec les données reçues (par exemple, des métadonnées) peuvent identifier une heure et / ou un emplacement associés aux données, qui peuvent ensuite être utilisés pour relier les données reçues à la session et / ou à l’activité. Dans un autre mode de réalisation, le dispositif informatique pourrait afficher des données (par exemple, un code à barres, tel qu’un code QR, etc.) qui identifie la session et / ou l’activité. Un enregistreur vidéo externe pourrait enregistrer les données d’identification (telles qu’affichées par le dispositif informatique) avec (par exemple, avant, après ou pendant) l’utilisateur et / ou son environnement. L’application pourrait alors rechercher les données vidéo pour identifier des données et utiliser ces données pour relier les données vidéo à une session et / ou une activité. La partie d’identification des données vidéo pourrait alors être supprimée par l’application si on le souhaite.

Les données peuvent être liées manuellement (par exemple, par l’utilisateur) ou automatiquement liées via l’application. 

Une compréhension plus complète d’un système et d’un procédé pour utiliser, traiter et afficher des données biométriques, ou une résultante de celles-ci, sera offerte à l’homme du métier, ainsi qu’une réalisation d’avantages supplémentaires et des objets de ceux-ci, en tenant compte de la description détaillée suivante du mode de réalisation préféré. On se référera aux feuilles de dessins annexées, qui seront d’abord décrites brièvement.

DESCRIPTION BRÈVE DES DESSINS

figure. 1 illustre un système pour utiliser, traiter et afficher des données biométriques, et pour synchroniser des données biométriques avec d’autres données (par exemple, des données vidéo, des données audio, etc.) selon un mode de réalisation de la présente invention;

figure. 2A illustre un système pour utiliser, traiter et afficher des données biométriques, et pour synchroniser des données biométriques avec d’autres données (par exemple, des données vidéo, des données audio, etc.) selon un autre mode de réalisation de la présente invention;

figure. 2B illustre un système pour utiliser, traiter et afficher des données biométriques, et pour synchroniser des données biométriques avec d’autres données (par exemple, des données vidéo, des données audio, etc.) selon encore un autre mode de réalisation de la présente invention;

figure. 3 illustre un exemple d’affichage de données vidéo synchronisées avec des données biométriques selon un mode de réalisation de la présente invention;

figure. 4 illustre un schéma de principe pour utiliser, traiter et afficher des données biométriques, et pour synchroniser des données biométriques avec d’autres données (par exemple, des données vidéo, des données audio, etc.) selon un mode de réalisation de la présente invention;

figure. 5 illustre un schéma de principe pour utiliser, traiter et afficher des données biométriques, et pour synchroniser des données biométriques avec d’autres données (par exemple, des données vidéo, des données audio, etc.) selon un autre mode de réalisation de la présente invention;

figure. 6 illustre un procédé pour synchroniser des données vidéo avec des données biométriques, exploiter les données vidéo et rechercher les données biométriques, selon un mode de réalisation de la présente invention;

figure. 7 illustre un exemple d’affichage de données vidéo synchronisées avec des données biométriques selon un autre mode de réalisation de la présente invention;

figure. 8 illustre des exemples de données vidéo, qui sont de préférence liées à un identifiant (ID), une heure de début (T) et une heure ou durée de fin (n);

figure. 9 illustre un exemple d’identifiant (ID), comprenant un identifiant de session et un identifiant d’activité;

figure. 10 illustre des exemples de données biométriques, qui sont de préférence liées à un identifiant (ID), une heure de début (T) et une fréquence d’échantillonnage (S);

figure. 11 illustre des exemples de données d’auto-réalisation, qui sont de préférence liées à un identifiant (ID) et un temps (m);

figure. 12 illustre comment des points de données biométriques échantillonnés peuvent être utilisés pour extrapoler un autre point de données biométriques selon un mode de réalisation de la présente invention;

figure. 13 illustre comment des points de données biométriques échantillonnés peuvent être utilisés pour extrapoler d’autres points de données biométriques selon un autre mode de réalisation de la présente invention;

figure. 14 illustre un exemple de la manière dont une heure de début et des données associées (par exemple, fréquence d’échantillonnage, etc.) peuvent être utilisées pour synchroniser des données biométriques et des données d’auto-réalisation avec des données vidéo;

figure. 15 représente un exemple de capture d’écran de «connexion» pour une application qui permet à un utilisateur de capturer au moins des données vidéo et biométriques de l’utilisateur effectuant un événement sportif (par exemple, faire du vélo, etc.) et d’afficher les données vidéo ensemble (ou en synchronisation) avec les données biométriques;

figure. 16 représentent un exemple de capture d’écran «Créer une session» pour l’application représentée sur la Fig. 15, permettant à l’utilisateur de créer une nouvelle session;

figure. 17 représente un exemple de capture d’écran «nom de session» pour l’application représentée sur la Fig. 15, permettant à l’utilisateur de saisir un nom pour la session;

figure. 18 représente un exemple de capture d’écran de «description de session» pour l’application représentée sur la Fig. 15, permettant à l’utilisateur de saisir une description pour la session;

figure. 19 représente un exemple de capture d’écran «session commencée» pour l’application représentée sur la Fig. 15, montrant la vidéo et les données biométriques reçues en temps réel;

figure. 20 représente une capture d’écran exemplaire de «session de revue» pour l’application représentée sur la Fig. 15, permettant à l’utilisateur de lire la session ultérieurement;

figure. 21 représente un exemple de capture d’écran «option d’affichage de graphique» pour l’application représentée sur la Fig. 15, permettant à l’utilisateur de sélectionner des données (par exemple, des données de fréquence cardiaque, etc.) à afficher avec les données vidéo;

figure. 22 représente une capture d’écran exemplaire de «session d’examen» pour l’application représentée sur la Fig. 15, où les données vidéo sont affichées ensemble (ou en synchronisation) avec les données biométriques;

figure. 23 représente un exemple de capture d’écran «carte» pour l’application représentée sur la Fig. 15, montrant les données GPS affichées sur une carte Google;

figure. 24 représente un exemple de capture d’écran «récapitulative» pour l’application représentée sur la Fig. 15, montrant un résumé de la session;

figure. 25 représente un exemple de capture d’écran «recherche biométrique» pour l’application représentée sur la Fig. 15, permettant à un utilisateur de rechercher dans les données biométriques un événement biométrique particulier (par exemple, une valeur particulière, une plage particulière, etc.);

figure. 26 représente un exemple de capture d’écran «premier résultat» pour l’application représentée sur la Fig. 15, montrant un premier résultat pour l’événement biométrique représenté sur la Fig. 25, avec la vidéo correspondante;

figure. 27 représente un exemple de capture d’écran «second résultat» pour l’application représentée sur la Fig. 15, montrant un deuxième résultat pour l’événement biométrique représenté sur la Fig. 25, avec la vidéo correspondante;

figure. 28 représente une capture d’écran exemplaire de «recherche de session» pour l’application représentée sur la Fig. 15, permettant à un utilisateur de rechercher des sessions qui répondent à certains critères; et

figure. 29 représente un exemple de capture d’écran «liste» pour l’application représentée sur la Fig. 15, montrant un résultat pour les critères représentés sur la Fig. 28.

DESCRIPTION DÉTAILLÉE DU MODE DE RÉALISATION PRÉFÉRÉ

La présente invention propose un système et un procédé pour utiliser, traiter, indexer, comparer, classer, comparer et afficher des données biométriques, ou une résultante de celles-ci, seuls ou ensemble (par exemple, en synchronisation) avec d’autres données (par exemple, des données vidéo, etc. .). Il doit être apprécié que, bien que l’invention soit décrite ici en termes de certaines données biométriques (par exemple, fréquence cardiaque, schémas respiratoires, taux d’alcoolémie, etc.), l’invention n’est pas si limitée et peut être utilisée en conjonction avec n’importe quel données biométriques et / ou physiques, y compris, mais sans s’y limiter, les niveaux d’oxygène, CO 2niveaux, saturation en oxygène, pression artérielle, glycémie, fonction pulmonaire, pression oculaire, conditions corporelles et ambiantes (température, humidité, niveaux de lumière, altitude et pression barométrique), vitesse (vitesse de marche, vitesse de course), emplacement et distance parcourue, fréquence respiratoire, variance de la fréquence cardiaque (VRC), données d’électrocardiogramme, niveaux de transpiration, calories consommées et / ou brûlées, cétones, contenu et / ou niveaux des rejets de déchets, niveaux d’hormones, teneur en sang, teneur en salive, niveaux audibles (par exemple, ronflement, etc. .), les niveaux et changements d’humeur, la réponse galvanique de la peau, les ondes cérébrales et / ou l’activité ou d’autres mesures neurologiques, les habitudes de sommeil, les caractéristiques physiques (par exemple, la taille, le poids, la couleur des yeux, la couleur des cheveux, les données d’iris, les empreintes digitales, etc.) ou réponses (par exemple, changements du visage, changements d’iris (ou pupal), changements de voix (ou de ton), etc.),ou toute combinaison ou résultante de celle-ci.

Comme le montre la Fig. 1, un dispositif biométrique 110 peut être en communication avec un dispositif informatique 108 , tel qu’un téléphone intelligent, qui, à son tour, est en communication avec au moins un dispositif informatique ( 102 , 104 , 106 ) via un réseau étendu ( » WAN ”) 100 , comme Internet. Les dispositifs informatiques peuvent être de différents types, tels qu’un PC, un ordinateur portable, une tablette, un téléphone intelligent, une montre intelligente, etc., utilisant un ou plusieurs systèmes d’exploitation ou plates-formes. Dans un mode de réalisation de la présente invention, le dispositif biométrique 110 est configuré pour acquérir (par exemple, mesurer, détecter, estimer, etc.) la fréquence cardiaque d’un individu (par exemple, des données biométriques). Les données biométriques sont ensuite fournies au dispositif informatique 108 , qui comprend un enregistreur vidéo et / ou audio (non représenté).

Dans un premier mode de réalisation de la présente invention, les données vidéo et / ou audio sont fournies avec les données de fréquence cardiaque à un dispositif informatique hôte 106 via le réseau 100 . Du fait que les données vidéo et / ou audio simultanées et les données de fréquence cardiaque sont fournies au dispositif informatique hôte 106 , une application hôte fonctionnant dessus (non représentée) peut être utilisée pour synchroniser les données vidéo, les données audio et / ou les données de fréquence cardiaque. , permettant ainsi à un utilisateur (par exemple, via les dispositifs informatiques utilisateur 102 , 104 ) de visualiser les données vidéo et / ou d’écouter les données audio (soit en temps réel soit en retard) tout en visualisant les données biométriques. Par exemple, comme le montre la Fig. 3, l’application hôte peut utiliser un horodatage 320, ou un autre procédé de séquençage utilisant des métadonnées, pour synchroniser les données vidéo 310 avec les données biométriques 330 , permettant à un utilisateur de visualiser, par exemple, un individu (par exemple, patient dans un hôpital, bébé dans un berceau, etc.) à un endroit particulier l’heure 340 (par exemple, 76 secondes après l’heure de début) et les données biométriques associées à l’individu à ce moment particulier 340 (par exemple, 76 secondes après l’heure de début).

Il convient de noter que l’application hôte peut en outre être configurée pour exécuter d’autres fonctions, telles que la recherche d’une activité particulière dans les données vidéo, les données audio, les données biométriques et / ou les métadonnées, et / ou le classement des données vidéo, des données audio et / ou des données biométriques. Par exemple, l’application hôte peut permettre à l’utilisateur de rechercher un événement biométrique particulier, tel qu’une fréquence cardiaque qui a dépassé un seuil ou une valeur particulière, une fréquence cardiaque qui est tombée en dessous d’un seuil ou d’une valeur particulière, une fréquence cardiaque particulière ( ou plage) pendant une période de temps minimale, etc. À titre d’autre exemple, l’application hôte peut classer les données vidéo, les données audio, les données biométriques ou une pluralité de clips synchronisés (par exemple, des bobines de surbrillance) par ordre chronologique, par magnitude biométrique ( du plus élevé au plus bas, du plus bas au plus élevé, etc.), par avis (du meilleur au pire, du pire au meilleur, etc.), ou par vues (le plus au moins, le moins au plus, etc.). Il doit en outre être apprécié que des fonctions telles que le classement, la recherche et l’analyse des données ne sont pas limitées à la session individuelle d’un utilisateur, mais peuvent être exécutées sur n’importe quel nombre de sessions individuelles de l’utilisateur, ainsi que sur la session ou le nombre de sessions. de plusieurs utilisateurs. Une utilisation de cette collecte de toutes les informations diverses (vidéo, biométriques et autres) est de pouvoir générer suffisamment de points de données pour l’analyse Big Data et le Machine Learning dans le but de générer des inférences et des recommandations d’IA. mais peut être effectué sur n’importe quel nombre de sessions individuelles de l’utilisateur, ainsi que sur la session ou le nombre de sessions de plusieurs utilisateurs. Une utilisation de cette collecte de toutes les informations diverses (vidéo, biométriques et autres) est de pouvoir générer suffisamment de points de données pour l’analyse Big Data et le Machine Learning dans le but de générer des inférences et des recommandations d’IA. mais peut être effectué sur n’importe quel nombre de sessions individuelles de l’utilisateur, ainsi que sur la session ou le nombre de sessions de plusieurs utilisateurs. Une utilisation de cette collecte de toutes les informations diverses (vidéo, biométriques et autres) est de pouvoir générer suffisamment de points de données pour l’analyse Big Data et le Machine Learning dans le but de générer des inférences et des recommandations d’IA.

À titre d’exemple, les algorithmes d’apprentissage automatique pourraient être utilisés pour rechercher automatiquement dans les données vidéo, à la recherche du contenu le plus convaincant qui serait ensuite assemblé en une courte «bande de surbrillance». Le réseau neuronal pourrait être formé à l’aide d’une pluralité de vidéos sportives, ainsi que des évaluations d’utilisateurs de leur niveau d’intérêt au fur et à mesure que les vidéos progressent. Les nœuds d’entrée du réseau pourraient être un échantillon de changement d’intensité de pixels entre les images avec la cote d’excitation médiane de la trame actuelle. Les algorithmes d’apprentissage automatique pourraient également être utilisés, en conjonction avec un réseau neuronal convolutif multicouche, pour classer automatiquement le contenu vidéo (par exemple, quel sport est dans la vidéo). Une fois le contenu identifié, automatiquement ou manuellement, des algorithmes peuvent être utilisés pour comparer l’activité de l’utilisateur à une activité idéalisée. Par exemple, le système pourrait comparer un enregistrement vidéo du swing de golf de l’utilisateur à celui d’un golfeur professionnel. Le système pourrait alors fournir des conseils supplémentaires à l’utilisateur sur la façon dont l’utilisateur pourrait améliorer son swing. Les algorithmes peuvent également être utilisés pour prédire les niveaux de condition physique des utilisateurs (par exemple, s’ils maintiennent leur programme, les incitant à continuer à s’entraîner), associer les utilisateurs à d’autres utilisateurs ou praticiens ayant des niveaux de forme physique similaires et / ou créer des routines optimisées pour chacun. utilisateur.

Il doit également être apprécié, comme le montre la Fig. 2A, que les données biométriques peuvent être fournies directement au dispositif informatique hôte 106 , sans passer par le dispositif informatique 108 . Par exemple, le dispositif informatique 108 et le dispositif biométrique 110 peuvent communiquer indépendamment avec le dispositif informatique hôte, soit directement, soit via le réseau 100 . Il doit en outre être apprécié que les données vidéo, les données audio et / ou les données biométriques n’ont pas besoin d’être fournies au dispositif informatique hôte 106.en temps réel. Par exemple, des données vidéo pourraient être fournies ultérieurement tant que les données peuvent être identifiées ou liées à une session particulière. Si les données vidéo peuvent être identifiées, elles peuvent alors être synchronisées avec d’autres données (par exemple, des données biométriques) reçues en temps réel.

Dans un mode de réalisation de la présente invention, comme le montre la Fig. 2B, le système comprend un dispositif informatique 200 , tel qu’un téléphone intelligent, en communication avec une pluralité de dispositifs, y compris un dispositif informatique hôte 240 via un WAN (voir, par exemple, figure 1 à 100 ), des dispositifs tiers 250 via le WAN (voir, par exemple, la figure 1 à 100 ), et les dispositifs locaux 230 (par exemple, via des connexions sans fil ou filaires). Dans un mode de réalisation préféré, le dispositif informatique 200 télécharge un programme ou une application (c’est-à-dire une plate-forme client) à partir du dispositif informatique hôte 240(par exemple, cloud d’entreprise). La plate-forme client comprend une pluralité de modules qui sont configurés pour exécuter une pluralité de fonctions.

Par exemple, la plate-forme cliente peut comprendre un module de capture vidéo 210 pour recevoir des données vidéo d’une caméra interne et / ou externe, et un module de capture biométrique 212 pour recevoir des données biométriques d’un dispositif biométrique interne et / ou externe. La plateforme client peut également comprendre un module d’interface utilisateur 202 , permettant à un utilisateur d’interagir avec la plateforme, un module d’édition vidéo 204 pour éditer des données vidéo, un module de gestion de fichiers 206 pour gérer (par exemple, stocker, relier, etc.) des données ( par exemple, données vidéo, données biométriques, données d’identification, données d’heure de début, données de durée, données de fréquence d’échantillonnage, données d’auto-réalisation, données d’horodatage, etc.), une base de données et un module de synchronisation 214pour répliquer des données (par exemple, copier des données stockées sur le dispositif informatique 200 vers le dispositif informatique hôte 240 et / ou copier des données utilisateur stockées sur le dispositif informatique hôte 240 vers le dispositif informatique 200 ), un module d’algorithme 216 pour traiter les données reçues (par ex. , synchronisation des données, recherche / filtrage des données, création d’une bande de surlignage, etc.), un module de partage 220 pour partager et / ou stocker des données (par exemple, données vidéo, bande de surbrillance, etc.) relatives soit à une seule session, soit à plusieurs sessions et un module central de connexion et d’identification 218 pour l’interfaçage avec des sites Web de médias sociaux tiers, tels que Facebook ™.

En ce qui concerne la fig. 2B, le dispositif informatique 200 , qui peut être un téléphone intelligent, une tablette ou tout autre dispositif informatique, peut être configuré pour télécharger la plate-forme client depuis le dispositif informatique hôte 240 . Une fois que la plate-forme client est en cours d’exécution sur le dispositif informatique 200 , la plate-forme peut être utilisée pour démarrer une nouvelle session, recevoir des données vidéo pour la session (c’est-à-dire via le module de capture vidéo 210 ) et recevoir des données biométriques pour la session (c’est-à-dire via le module de capture biométrique 212). Ces données peuvent être stockées dans un stockage local, dans une base de données locale et / ou sur un périphérique de stockage distant (par exemple, dans le cloud de l’entreprise ou un cloud tiers, tel que Dropbox ™, etc.). Dans un mode de réalisation préféré, les données sont stockées de manière à être liées à des informations qui (i) identifient la session et (ii) permettent la synchronisation.

Par exemple, les données vidéo sont de préférence liées à au moins une heure de début (par exemple, une heure de début de session) et un identifiant. L’identifiant peut être un numéro unique identifiant de manière unique la session, ou une pluralité de numéros (par exemple, une pluralité d’identifiants uniques globalement (ou universellement) (GUID / UUID), où un premier numéro identifiant de manière unique la session et un second numéro identifie de manière unique une activité au sein de la session, permettant à une session (par exemple, un voyage ou un itinéraire dans une destination, telle que Berlin) d’inclure une pluralité d’activités (par exemple, une balade à vélo, une promenade, etc.). À titre d’exemple seulement, un identifiant d’activité (ou de session) peut être un identifiant de 128 bits qui a une forte probabilité d’unicité, tel que 8bf25512-f17a-4e9e-b49a-7c3f59ec1e85). L’identifiant peut également inclure un nom de session et / ou une description de session. D’autres informations sur les données vidéo (par exemple, la longueur de la vidéo, la source vidéo, etc.) (c’est-à-dire les «métadonnées vidéo») peuvent également être stockées et liées aux données vidéo. Les données biométriques sont de préférence liées à au moins l’heure de début (par exemple, la même heure de début liée aux données vidéo), l’identifiant (par exemple, le même identifiant lié aux données vidéo), et une fréquence d’échantillonnage, qui identifie la fréquence à quelles données biométriques sont reçues et / ou stockées. Par exemple, des données de fréquence cardiaque peuvent être reçues et stockées à une fréquence de trente échantillons par minute (30 spm), c’est-à-dire une fois toutes les deux secondes, ou un autre échantillon d’intervalle de temps prédéterminé. la même heure de début liée aux données vidéo), l’identifiant (par exemple, le même identifiant lié aux données vidéo) et une fréquence d’échantillonnage, qui identifie la fréquence à laquelle les données biométriques sont reçues et / ou stockées. Par exemple, des données de fréquence cardiaque peuvent être reçues et stockées à une fréquence de trente échantillons par minute (30 spm), c’est-à-dire une fois toutes les deux secondes, ou un autre échantillon d’intervalle de temps prédéterminé. la même heure de début liée aux données vidéo), l’identifiant (par exemple, le même identifiant lié aux données vidéo) et une fréquence d’échantillonnage, qui identifie la fréquence à laquelle les données biométriques sont reçues et / ou stockées. Par exemple, des données de fréquence cardiaque peuvent être reçues et stockées à une fréquence de trente échantillons par minute (30 spm), c’est-à-dire une fois toutes les deux secondes, ou un autre échantillon d’intervalle de temps prédéterminé.

Dans certains cas, la fréquence d’échantillonnage utilisée par la plate-forme peut être la fréquence d’échantillonnage du dispositif biométrique (c’est-à-dire la fréquence à laquelle les données sont fournies par le dispositif biométrique). Dans d’autres cas, la fréquence d’échantillonnage utilisée par la plate-forme peut être indépendante de la fréquence à laquelle les données sont reçues (par exemple, une fréquence fixe, une fréquence configurable, etc.). Par exemple, si le dispositif biométrique est configuré pour fournir des données biométriques à un taux de soixante échantillons par minute (60 spm), la plate-forme peut encore stocker les données à un débit de 30 spm. En d’autres termes, avec une fréquence d’échantillonnage de 30 spm, la plateforme aura mémorisé cinq valeurs au bout de dix secondes, la première valeur étant la seconde valeur transmise par le dispositif biométrique, la seconde valeur étant la quatrième valeur transmise par le dispositif biométrique, et bientôt. Alternativement, si le dispositif biométrique est configuré pour fournir des données biométriques uniquement lorsque les données biométriques changent, la plate-forme peut encore stocker les données à une vitesse de 30 spm. Dans ce cas, la première valeur stockée par la plateforme peut être la première valeur transmise par le dispositif biométrique, la seconde valeur stockée peut être la première valeur transmise par le dispositif biométrique si au moment du stockage aucune nouvelle valeur n’a été transmise par le dispositif biométrique, la troisième valeur mémorisée peut être la deuxième valeur transmise par le dispositif biométrique si au moment du stockage une nouvelle valeur est transmise par le dispositif biométrique, et ainsi de suite.

Une fois les données vidéo et biométriques stockées et liées, des algorithmes peuvent être utilisés pour afficher les données ensemble. Par exemple, si les données biométriques sont stockées à une fréquence d’échantillonnage de 30 spm, qui peut être fixe ou configurable, des algorithmes (par exemple, 216) peut être utilisé pour afficher une première valeur biométrique (par exemple, sous les données vidéo, superposée sur les données vidéo, etc.) au début du clip vidéo, une deuxième valeur biométrique deux secondes plus tard (deux secondes après le début du clip vidéo) , une troisième valeur biométrique deux secondes plus tard (quatre secondes après le début du clip vidéo), etc. Dans d’autres modes de réalisation de la présente invention, des données non vidéo (par exemple, données biométriques, données d’auto-réalisation, etc.) peuvent être stockées avec un une pluralité d’horodatages (par exemple, des tampons individuels ou des décalages pour chaque valeur stockée), qui peuvent être utilisés conjointement avec l’heure de début pour synchroniser des données non vidéo avec des données vidéo.

Il doit être apprécié que, bien que la plate-forme cliente puisse être configurée pour fonctionner de manière autonome (c’est-à-dire indépendamment du dispositif réseau hôte 240 ), dans un mode de réalisation de la présente invention, certaines fonctions de la plate-forme client sont exécutées par le dispositif réseau hôte 240 , et ne peut être effectuée que lorsque le dispositif informatique 200 est en communication avec le dispositif informatique hôte 240 . Un tel mode de réalisation est avantageux en ce qu’il non seulement décharge certaines fonctions vers le dispositif informatique hôte 240 , mais il garantit que ces fonctions ne peuvent être exécutées que par le dispositif informatique hôte 240.(par exemple, exiger qu’un utilisateur s’abonne à un service cloud pour exécuter certaines fonctions). Les fonctions déchargées sur le cloud peuvent inclure des fonctions nécessaires pour afficher des données non vidéo avec des données vidéo (par exemple, la liaison d’informations à des données vidéo, la liaison d’informations à des données non vidéo, la synchronisation de données non vidéo avec des données vidéo , etc.), ou peut inclure des fonctions plus avancées, telles que la génération et / ou le partage d’une «bande de surbrillance». Dans des modes de réalisation alternatifs, le dispositif informatique 200 est configuré pour exécuter les fonctions précédentes tant que certains critères ont été satisfaits. Ce critère peut inclure le dispositif informatique 200 en communication avec le dispositif informatique hôte 240 , ou le dispositif informatique 200étant préalablement en communication avec le dispositif informatique hôte 240 et la période de temps depuis la dernière communication étant égale ou inférieure à une durée prédéterminée. Technologie connue de l’homme du métier (par exemple, en utilisant un code d’authentification de méthode à base de hachage à clé (HMAC), une heure mémorisée de ladite dernière communication (permettant audit dispositif informatique de déterminer si ledit delta est inférieur à une durée prédéterminée) , etc.) peut être utilisé pour s’assurer que ce critère est respecté avant d’autoriser l’exécution de certaines fonctions.

Des schémas fonctionnels d’un exemple de dispositif informatique et d’un exemple de dispositif biométrique sont représentés sur la Fig. 5. En particulier, l’exemple de dispositif biométrique 500 comprend un capteur pour détecter des données biométriques, un affichage pour s’interfacer avec l’utilisateur et afficher diverses informations (par exemple, des données biométriques, des données de configuration, des données de fonctionnement, telles que le démarrage, l’arrêt et pause, etc.), une mémoire pour stocker les données biométriques détectées, un émetteur-récepteur pour communiquer avec l’exemple de dispositif informatique 600 , et un processeur pour faire fonctionner et / ou piloter l’émetteur-récepteur, la mémoire, le capteur et l’affichage. L’exemple de dispositif informatique 600 comprend un émetteur-récepteur ( 1 ) pour recevoir des données biométriques du dispositif biométrique exemplaire 500.(par exemple, en utilisant une télémétrie, toute norme WiFi, DNLA, Apple AirPlay, Bluetooth, communication en champ proche (NFC), RFID, ZigBee, Z-Wave, Thread, Cellular, une connexion filaire, infrarouge ou autre méthode de transmission de données, datacasting ou streaming, etc.), une mémoire pour stocker les données biométriques, un affichage pour interagir avec l’utilisateur et afficher diverses informations (par exemple, données biométriques, données de configuration, données de fonctionnement, telles que démarrage, arrêt et pause, saisir des commentaires en session ou ajouter des notes vocales, etc.), un clavier pour recevoir les données d’entrée utilisateur, un émetteur-récepteur ( 2) pour fournir les données biométriques au dispositif informatique hôte via Internet (par exemple, en utilisant n’importe quelle télémétrie, n’importe quelle norme WiFi, DNLA, Apple AirPlay, Bluetooth, communication en champ proche (NFC), RFID, ZigBee, Z-Wave, Thread, Cellulaire, connexion filaire, infrarouge ou autre méthode de transmission de données, de diffusion de données ou de streaming, etc.) et un processeur pour faire fonctionner et / ou piloter l’émetteur-récepteur ( 1 ), l’émetteur-récepteur ( 2 ), le clavier, l’écran et la mémoire.

Le clavier dans le dispositif informatique 600 , ou en variante le clavier dans le dispositif biométrique 500, peut être utilisé pour saisir des données d’auto-réalisation ou des données sur la façon dont l’utilisateur se sent à un moment donné. Par exemple, si l’utilisateur se sent fatigué, l’utilisateur peut appuyer sur le bouton «T» du clavier. Si l’utilisateur sent ses endorphines entrer, l’utilisateur peut appuyer sur le bouton «E» du clavier. Et si l’utilisateur obtient son second souffle, l’utilisateur peut appuyer sur le bouton «S» du clavier. Ces données sont ensuite stockées et liées à une fréquence d’échantillonnage (comme les données biométriques) ou à des données d’horodatage, qui peuvent être une heure ou un décalage par rapport à l’heure de début à laquelle chaque bouton a été enfoncé. Cela permettrait aux données d’auto-réalisation, de la même manière que les données biométriques, d’être synchronisées avec les données vidéo. Cela permettrait également de rechercher ou de filtrer les données d’auto-réalisation, comme les données biométriques (par exemple, pour trouver une vidéo correspondant à un événement particulier,

Il doit être apprécié que la présente invention n’est pas limitée aux schémas de principe représentés sur la Fig. 5, et un dispositif biométrique et / ou un dispositif informatique qui comprend moins ou plus de composants est dans l’esprit et la portée de la présente invention. Par exemple, un dispositif biométrique qui n’inclut pas d’affichage ou qui comprend une caméra et / ou un microphone entre dans l’esprit et la portée de la présente invention, comme le sont d’autres dispositifs ou procédés de saisie de données au-delà d’un clavier, comme un écran tactile. , stylo numérique, dispositif de reconnaissance vocale / audible, dispositif de reconnaissance gestuelle, dit «portable», ou tout autre dispositif de reconnaissance généralement connu de l’homme du métier. De même, un dispositif informatique qui ne comprend qu’un seul émetteur-récepteur, comprend en outre une caméra (pour capturer la vidéo) et / ou un microphone (pour capturer l’audio ou pour effectuer une analyse spatiale par l’enregistrement ou la mesure du son et de la façon dont il se déplace), ou comprend en outre un capteur (voir la figure 4) est dans l’esprit et la portée de la présente invention. Il doit également être apprécié que les données d’auto-réalisation ne se limitent pas à ce que ressent un utilisateur, mais peuvent également inclure un événement que l’utilisateur ou l’application souhaite commémorer. Par exemple, l’utilisateur peut vouloir enregistrer (ou horodater) l’utilisateur qui passe à vélo devant la faune, ou une structure architecturale particulière, ou l’application peut vouloir enregistrer (ou horodater) un patient en appuyant sur un bouton «demander une infirmière», ou toute autre activité non biométrique détectée de l’utilisateur. 4) entre dans l’esprit et la portée de la présente invention. Il doit également être apprécié que les données d’auto-réalisation ne se limitent pas à ce que ressent un utilisateur, mais peuvent également inclure un événement que l’utilisateur ou l’application souhaite commémorer. Par exemple, l’utilisateur peut vouloir enregistrer (ou horodater) l’utilisateur qui passe à vélo devant la faune, ou une structure architecturale particulière, ou l’application peut vouloir enregistrer (ou horodater) un patient en appuyant sur un bouton «demander une infirmière», ou toute autre activité non biométrique détectée de l’utilisateur. 4) entre dans l’esprit et la portée de la présente invention. Il doit également être apprécié que les données d’auto-réalisation ne se limitent pas à ce que ressent un utilisateur, mais peuvent également inclure un événement que l’utilisateur ou l’application souhaite commémorer. Par exemple, l’utilisateur peut vouloir enregistrer (ou horodater) l’utilisateur qui passe à vélo devant la faune, ou une structure architecturale particulière, ou l’application peut vouloir enregistrer (ou horodater) un patient en appuyant sur un bouton «demander une infirmière», ou toute autre activité non biométrique détectée de l’utilisateur.

En se référant à nouveau à la Fig. 1, comme discuté ci-dessus en liaison avec la Fig. 2B, l’application hôte (ou plate-forme client) peut fonctionner sur le dispositif informatique 108 . Dans ce mode de réalisation, le dispositif informatique 108 (par exemple, un téléphone intelligent) peut être configuré pour recevoir des données biométriques du dispositif biométrique 110 (soit en temps réel, soit à un stade ultérieur, avec un horodatage correspondant à l’apparition de les données biométriques), et pour synchroniser les données biométriques avec les données vidéo et / ou les données audio enregistrées par le dispositif informatique 108 (ou une caméra et / ou un microphone fonctionnant sur celui-ci). Il doit être apprécié que dans ce mode de réalisation de la présente invention, autre que l’application hôte exécutée localement (par exemple, sur le dispositif informatique108 ), l’application hôte (ou la plate-forme cliente) fonctionne comme décrit précédemment.

De nouveau, en référence à la Fig. 1, dans un autre mode de réalisation de la présente invention, le dispositif informatique 108 comprend en outre un capteur pour détecter des données biométriques. Dans ce mode de réalisation de la présente invention, l’application hôte (ou plate-forme client) fonctionne comme décrit précédemment (localement sur le dispositif informatique 108 ), et fonctionne pour au moins synchroniser les données vidéo, audio et / ou biométriques, et permettre la synchronisation. données à lire ou à présenter à un utilisateur (par exemple, via une partie d’affichage, via un dispositif d’affichage connecté directement au dispositif informatique, via un dispositif informatique utilisateur connecté au dispositif informatique (par exemple, directement, via le réseau, etc.) , etc.).

Il doit être apprécié que la présente invention, dans tout mode de réalisation, n’est pas limitée aux dispositifs informatiques (nombre ou type) représentés sur les Fig. 1 et 2, et peut inclure n’importe quel appareil informatique, de détection, d’enregistrement numérique, de GPS ou autre appareil compatible avec la localisation (par exemple, en utilisant des systèmes de positionnement WiFi «WPS», ou d’autres formes de dérivation de l’emplacement géographique, comme par triangulation de réseau) , généralement connu de l’homme du métier, tel qu’un ordinateur personnel, un serveur, un ordinateur portable, une tablette, un téléphone intelligent, un téléphone cellulaire, une montre intelligente, une bande d’activité, une sangle de fréquence cardiaque, un capteur de matelas , un capteur de semelle de chaussure, un appareil photo numérique, un capteur de champ proche ou un dispositif de détection, etc. Il convient également de noter que la présente invention n’est limitée à aucun dispositif biométrique particulier, et comprend les dispositifs biométriques qui sont configurés pour être portés au poignet (par exemple, comme une montre), portés sur la peau (par exemple, comme un patch cutané) ou sur le cuir chevelu, ou incorporés dans des dispositifs informatiques (par exemple, téléphones intelligents, etc.) , soit intégrés ou ajoutés à des articles tels que la literie, des appareils portables tels que des vêtements, des chaussures, des casques ou des chapeaux, ou des écouteurs, ou des équipements de sport tels que des raquettes, des clubs de golf ou des vélos, lorsque d’autres types de données, y compris physiques Les mesures de performance telles que la vitesse de la raquette ou de la tête du club, ou la rotation de la pédale / seconde, ou l’enregistrement des chaussures telles que les zones d’impact, la démarche ou le cisaillement, peuvent également être mesurées de manière synchrone avec la biométrie et synchronisées avec la vidéo. D’autres données peuvent également être mesurées de manière synchrone avec les données vidéo, y compris la biométrie sur les animaux (par exemple, l’accélération d’un taureau ou le pivot ou le bouc dans un événement d’équitation de taureau, l’accélération d’un cheval adaptée à la fréquence cardiaque dans une course de chevaux, etc.), et les mesures de performance physique d’objets inanimés, telles que les révolutions / minute (par exemple, dans un véhicule, comme une automobile, une moto, etc.), miles / heure (ou similaire) (par exemple, dans un véhicule, comme une automobile, une moto, etc., une bicyclette, etc.), ou des forces G (par exemple, ressenties par l’utilisateur, un animal et un objet inanimé, etc.). Toutes ces données (collectivement «données non vidéo», qui peuvent inclure des métadonnées, ou des données sur des données non vidéo) peuvent être synchronisées avec des données vidéo en utilisant une fréquence d’échantillonnage et / ou au moins un horodatage, comme indiqué ci-dessus. dans un véhicule, tel qu’une automobile, une motocyclette, etc., une bicyclette, etc.) ou des forces G (par exemple, subies par l’utilisateur, un animal et un objet inanimé, etc.). Toutes ces données (collectivement «données non vidéo», qui peuvent inclure des métadonnées, ou des données sur des données non vidéo) peuvent être synchronisées avec des données vidéo en utilisant une fréquence d’échantillonnage et / ou au moins un horodatage, comme indiqué ci-dessus. dans un véhicule, tel qu’une automobile, une motocyclette, etc., une bicyclette, etc.) ou des forces G (par exemple, subies par l’utilisateur, un animal et un objet inanimé, etc.). Toutes ces données (collectivement «données non vidéo», qui peuvent inclure des métadonnées, ou des données sur des données non vidéo) peuvent être synchronisées avec des données vidéo en utilisant une fréquence d’échantillonnage et / ou au moins un horodatage, comme indiqué ci-dessus.

Il faut en outre comprendre que la présente invention n’a pas besoin de fonctionner conjointement avec un réseau, tel qu’Internet. Par exemple, comme le montre la Fig. 2A, le dispositif biométrique 110 , qui peut être, par exemple, une bande d’activité sans fil pour détecter la fréquence cardiaque, et le dispositif informatique 108 , qui peut être, par exemple, un enregistreur vidéo numérique, peut être connecté directement à l’ordinateur hôte. dispositif 106exécution de l’application hôte (non représentée), où l’application hôte fonctionne comme indiqué précédemment. Dans ce mode de réalisation, les données vidéo, audio et / ou biométriques peuvent être fournies à l’application hôte soit (i) en temps réel, soit (ii) à un moment ultérieur, puisque les données sont synchronisées avec une fréquence d’échantillonnage et / ou horodatage. Cela permettrait, par exemple, au moins une vidéo d’un athlète, ou d’un sportif ou d’une femme (par exemple, un joueur de football, un joueur de football, un pilote de course, etc.) d’être montré en action (par exemple, jouer au football, jouer au football , course automobile, etc.) avec des données biométriques de l’athlète en action (voir, par exemple, la figure 7). À titre d’exemple uniquement, cela permettrait à un utilisateur de voir la fréquence cardiaque d’un joueur de football 730lorsque le joueur de football dribble un ballon, frappe le ballon, dirige le ballon, etc. Ceci peut être accompli en utilisant un horodatage 720 (par exemple, heure de début, etc.), ou une autre méthode de séquençage utilisant des métadonnées (par exemple, fréquence d’échantillonnage, etc.) .), pour synchroniser les données vidéo 710 avec les données biométriques 730 , permettant à l’utilisateur de visualiser le joueur de football à un moment particulier 740 (par exemple, 76 secondes) et les données biométriques associées à l’athlète à ce moment particulier 340 (par exemple, 76 secondes). Une technologie similaire peut être utilisée pour afficher des données biométriques sur d’autres athlètes, joueurs de cartes, acteurs, collecteurs en ligne, etc.

si on le souhaite et si possible dans les limites du champ de capture vidéo de la caméra utilisée, également pour concentrer la vue de la caméra vidéo sur un groupe réduit ou sur un individu spécifique. Dans un autre mode de réalisation de la présente invention, la sélection des données biométriques est automatiquement accomplie, par exemple, sur la base de l’emplacement de l’individu dans l’image vidéo (par exemple, centre de l’image), de la vitesse de mouvement (par exemple, se déplacer plus rapidement que d’autres individus) , ou la proximité d’un capteur (par exemple, étant porté par l’individu, noyé dans le ballon porté par l’individu, etc.), qui peut être préalablement activé ou activé par un signal radiofréquence à distance. L’activation du capteur peut entraîner la transmission des données biométriques de l’individu à un récepteur,

Dans le cadre du fitness ou du suivi sportif, il faut comprendre que la capture de l’activité d’un individu sur vidéo ne dépend pas de la présence d’un tiers pour ce faire, mais diverses méthodes d’auto-vidéo peuvent être envisagées, comme une dispositif de capture vidéo monté sur le poignet du sujet ou sur un harnais corporel, ou sur un accessoire pour selfie ou un cardan, ou fixé à un objet (par exemple, des équipements sportifs tels que des guidons de vélo, des objets trouvés dans des environnements sportifs tels qu’un basket ou un filet de tennis, un poteau de but de football, un plafond, etc., une caméra embarquée sur un drone suivant l’individu, un trépied, etc.). Il convient en outre de noter que de tels dispositifs de capture vidéo peuvent comprendre plus d’un objectif de caméra, de sorte que non seulement l’activité de l’individu peut être filmée, mais également simultanément une vue différente, comme ce que l’individu regarde ou voit devant lui (c.-à-d. l’environnement de l’utilisateur). Le dispositif de capture vidéo pourrait également être équipé d’une lentille miroir convexe, ou avoir un miroir convexe ajouté en tant que pièce jointe à l’avant de l’objectif, ou être une caméra complète à 360 degrés, ou plusieurs caméras 360 reliées entre elles, de sorte que soit avec ou sans utiliser de logiciel spécialisé connu dans l’art, une vue panoramique ou surround à 360 degrés peut être générée, ou une vue globale à 360 degrés dans tous les axes peut être générée.

Dans le cadre de la réalité augmentée ou virtuelle, lorsque l’individu porte des lunettes, des lunettes, un casque ou un autre type d’écran de visualisation capable de rendre AR, VR, ou autre imagerie 3D synthétisée ou réelle, les données biométriques telles que la fréquence cardiaque du capteur, ainsi que d’autres données telles que, par exemple, la course d’entraînement ou la vitesse, d’un capteur correctement équipé, tel qu’un accéléromètre capable de mesurer le mouvement et la vitesse, pourrait être visible par l’individu, superposé à son champ de vision. De plus, un avatar de l’individu en mouvement pourrait être superposé devant le champ de vision de l’individu, de sorte qu’il puisse surveiller ou améliorer ses performances d’exercice, ou améliorer d’une autre manière l’expérience de l’activité en se visualisant eux-mêmes ou leur propre avatar, ensemble (par exemple, synchronisé) avec leur performance (par exemple, données biométriques, etc.). Facultativement, les données biométriques également de leur avatar, ou de l’avatar concurrent, pourraient être affichées simultanément dans le champ de visualisation. En outre (ou en variante), au moins une formation supplémentaire ou un avatar en compétition peut être superposé à la vue de l’individu, qui peut montrer le ou les avatars en compétition par rapport à l’individu (par exemple, en les montrant superposés devant l’individu, en montrant superposés au côté de l’utilisateur, les montrant derrière l’individu (par exemple, dans une partie rétroviseur de l’écran, etc.), et / ou les montrant par rapport à l’individu (par exemple, sous forme de partie de l’écran radar de l’affichage, etc.), etc.

En outre, toutes les sources multimédias auxquelles l’utilisateur est exposé tout en s’engageant dans l’activité qui est suivie et enregistrée, devraient de même pouvoir être enregistrées avec l’horodatage, pour l’analyse et / ou la corrélation de la réponse biométrique de l’individu. Un exemple d’application de ceci pourrait être dans la sélection de morceaux de musique spécifiques pour quand quelqu’un effectue une activité d’entraînement, où la corrélation de la réponse passée de l’individu, basée, par exemple, sur la fréquence cardiaque (et dans quelle mesure niveaux de performance ou objectifs) au type de musique (par exemple, la ou les pistes musicales spécifiques, une ou plusieurs pistes similaires aux pistes spécifiques, une ou plusieurs pistes recommandées ou sélectionnées par d’autres qui piste (s) spécifique (s), etc.) est utilisée pour développer un algorithme personnalisé, afin d’optimiser la sélection automatisée de la musique pour augmenter l’effort physique ou pour maximiser la récupération pendant et après l’effort. L’individu pourrait en outre spécifier qu’il souhaitait que la piste ou le type de musique spécifique, sur la base de l’algorithme de sélection personnalisé, soit lu en fonction de leur emplacement géographique; un exemple en serait une personne qui utilise fréquemment ou régulièrement un circuit particulier à des fins d’entraînement ou de loisirs. En variante, des pistes ou des types de musique pourraient être sélectionnés par l’enregistrement ou la corrélation de la réponse biométrique passée en conjonction avec l’entrée d’auto-réalisation lorsque des pistes particulières étaient écoutées. L’individu pourrait en outre spécifier qu’il souhaitait que la piste ou le type de musique spécifique, sur la base de l’algorithme de sélection personnalisé, soit lu en fonction de leur emplacement géographique; un exemple en serait une personne qui utilise fréquemment ou régulièrement un circuit particulier à des fins d’entraînement ou de loisirs. En variante, des pistes ou des types de musique pourraient être sélectionnés par l’enregistrement ou la corrélation de la réponse biométrique passée en conjonction avec l’entrée d’auto-réalisation lorsque des pistes particulières étaient écoutées. L’individu pourrait en outre spécifier qu’il souhaitait que la piste ou le type de musique spécifique, sur la base de l’algorithme de sélection personnalisé, soit lu en fonction de leur emplacement géographique; un exemple en serait une personne qui utilise fréquemment ou régulièrement un circuit particulier à des fins d’entraînement ou de loisirs. En variante, des pistes ou des types de musique pourraient être sélectionnés par l’enregistrement ou la corrélation de la réponse biométrique passée en conjonction avec l’entrée d’auto-réalisation lorsque des pistes particulières étaient écoutées.

Il convient de noter que les données biométriques n’ont pas besoin d’être liées au mouvement physique ou à l’activité sportive, mais peuvent plutôt être combinées avec une vidéo d’un individu à un endroit fixe (par exemple, lorsque l’individu est surveillé à distance ou enregistré pour un examen ultérieur) , par exemple, comme le montre la Fig. 3, pour des raisons de santé ou une condition médicale, comme à leur domicile ou à l’hôpital, ou une personne âgée en milieu de vie assistée, ou un bébé endormi surveillé par ses parents alors qu’il se trouve dans une autre pièce ou un autre lieu.

etc.). Cela permettrait à un tiers (par exemple, un fournisseur de services, un annonceur, un fournisseur de publicités, une société de production / promoteur de films, une affiche d’un profil de rencontre, un site de rencontre, etc.) d’acquérir pour analyse de leur réponse, les données biométriques associées à la visualisation de certaines données par le spectateur, où le spectateur ou son profil pourraient éventuellement être identifiables par le système du tiers, ou lorsque seule l’identité du dispositif d’interaction du spectateur est connue, ou peut être acquise à partir du GPS de l’expéditeur biométrique, ou autre appareil compatible avec la localisation.

Par exemple, un annonceur ou un fournisseur de publicité pourrait voir comment les gens réagissent à une publicité, ou une société de production de films / un promoteur pourrait évaluer comment les gens réagissent à une bande-annonce de film, ou à une affiche d’un profil de rencontre ou au site de rencontre lui-même, pourrait voir comment les gens réagissent au profil de rencontre. Alternativement, les téléspectateurs de joueurs en ligne d’un service de diffusion de jeux en ligne ou d’eSports tels que twitch.tv, ou d’un jeu de poker en ligne télévisé ou diffusé en continu, pourraient voir les données biométriques des participants actifs simultanément avec la source vidéo principale ainsi que les données des participants. réactions ou performances visibles. Comme pour la vidéo / audio, celle-ci peut être soit synchronisée en temps réel, soit synchronisée ultérieurement en utilisant l’horodatage intégré ou autre (par exemple, la fréquence d’échantillonnage, etc.). Aditionellement,

Comme décrit précédemment, l’application hôte peut être configurée pour exécuter une pluralité de fonctions. Par exemple, l’application hôte peut être configurée pour synchroniser des données vidéo et / ou audio avec des données biométriques. Cela permettrait, par exemple, à une personne qui regarde un événement sportif (par exemple, sur un téléviseur, un écran d’ordinateur, etc.) de regarder comment les données biométriques de chaque joueur changent pendant le jeu de l’événement sportif, ou également de cartographier ces changements de données biométriques en d’autres joueurs ou d’autres modèles de comparaison. De même, un médecin, une infirmière ou un technicien médical pourrait enregistrer les habitudes de sommeil d’une personne et regarder, rechercher ou revoir ultérieurement l’enregistrement (par exemple, sur un téléviseur, un écran d’ordinateur, etc.) tout en surveillant les données biométriques de la personne. Le système pourrait également utiliser l’apprentissage automatique pour créer un profil pour chaque patient, en identifiant certaines caractéristiques du patient (par exemple,

L’application hôte pourrait également être configurée pour fournir des données biométriques à un utilisateur distant via un réseau, tel qu’Internet. Par exemple, un dispositif biométrique (par exemple, un téléphone intelligent avec un capteur d’alcoolémie) pourrait être utilisé pour mesurer le taux d’alcoolémie d’une personne (par exemple, pendant que la personne parle à l’utilisateur distant via le téléphone intelligent), et pour fournir le taux d’alcoolémie de la personne à l’utilisateur distant. En plaçant le capteur à proximité ou en l’incorporant dans le microphone, un tel système permettrait à un parent de déterminer si son enfant a bu de l’alcool en participant à un appel téléphonique ou vidéo avec son enfant. Différents capteurs connus dans l’art pourraient être utilisés pour détecter différents produits chimiques dans la respiration de la personne, ou pour détecter les schémas respiratoires des personnes par l’analyse des variations de son et de vitesse,

Le système pourrait également être adapté avec un soi-disant «laboratoire sur puce» (LOC) intégré dans le dispositif lui-même, ou avec un accessoire approprié ajouté à celui-ci, pour le test à distance par exemple, d’échantillons de sang où le smartphone est soit utilisé pour la collecte et l’envoi de l’échantillon à un laboratoire de test pour analyse, soit pour effectuer le prélèvement et l’analyse d’échantillons dans le dispositif lui-même. Dans les deux cas, le système est adapté de manière à ce que l’identité du sujet et son échantillon de sang soient authentifiés de manière croisée à des fins d’intégrité de l’échantillon et de l’analyse ainsi que de la certitude de l’identité du patient, grâce à l’enregistrement simultané de la vidéo horodatée et de l’heure et / ou localisation (ou marquage GPS) de l’échantillon au point de prélèvement et / ou de soumission de l’échantillon.

Ceci, ou la collecte d’autres données biométriques telles que la fréquence cardiaque ou la pression artérielle, pourrait également être appliqué dans des situations où il est critique pour des raisons de sécurité, de vérifier, via une surveillance vidéo à distance régulière en temps réel, que ce soit, par exemple, un pilote d’avion. , un conducteur de camion ou de train, sont en bonne forme et en bon état pour contrôler leur véhicule ou navire ou si, par exemple, ils subissent une incapacité soudaine ou une crise cardiaque, etc. Parce que la personne surveillée est filmée en même temps qu’elle fournit Données biométriques horodatées, géo-horodatées et / ou échantillonnées, il y a moins de possibilité pour la personne surveillée ou un tiers, de «tromper», «usurper» ou contourner le système. Dans un contexte de consultation à distance patient / médecin, le système pourrait être utilisé pour des consultations vidéo sécurisées où également, d’un point de vue réglementaire ou d’assurance maladie, la consultation et son occurrence sont validées par la validation de l’heure et / ou du géo-timbre. En outre, lorsqu’il existe une exigence pour un niveau d’authentification plus élevé, le système pourrait en outre être adapté pour utiliser la reconnaissance faciale ou des algorithmes biométriques, afin de garantir que la bonne personne est surveillée, ou l’analyse de l’expression faciale pourrait être utilisée pour l’évaluation des modèles de comportement.

La crainte qu’une partie surveillée ne souhaite pas être surveillée en permanence (par exemple, une personne âgée ne souhaitant pas que chacun de ses mouvements et de ses actions soit filmé en continu) pourrait être atténuée par l’intégration de diverses fonctionnalités supplémentaires. Dans un mode de réalisation, la vidéo enregistrerait en permanence dans un système en boucle qui utilise un espace mémoire réservé, enregistrerait pendant une période de temps prédéterminée, puis effacerait automatiquement la vidéo, où n représente les minutes sélectionnées dans la boucle et E est l’événement. ce qui empêche l’effacement de la boucle enregistrée de n minutes, et déclenche à la fois la transmission en temps réel de l’état visible ou des actions de la personne surveillée à la personne surveillée, ainsi que la possibilité de rembobiner, afin que la partie surveillante puisse pour revoir la manifestation physique menant à E. Le mécanisme de déclenchement pour E pourrait être, par exemple, l’apparition de données biométriques en dehors de la plage prédéfinie, ou la notification d’une autre anomalie telle qu’une alerte de chute, activée par des capteurs de mouvement ou de localisation tels qu’un gyroscope, un accéléromètre ou un magnétomètre au sein de la santé. dispositif de bande porté par, disent les personnes âgées, ou sur leur téléphone portable ou tout autre dispositif de détection de mouvement en réseau à leur proximité. La partie de surveillance serait en mesure non seulement de visualiser l’état physique de la partie surveillée après E, tout en obtenant une lecture simultanée de leurs données biométriques pertinentes, mais aussi de revoir les événements et les données biométriques menant immédiatement à la notification de déclenchement d’événement. . Alternativement, il pourrait être encore calibré de sorte que bien que la vidéo soit enregistrée, comme précédemment, dans la boucle n, aucune vidéo de la boucle n ne sera effectivement transmise à une partie de surveillance jusqu’à la survenue de E. Les avantages de ce système incluent le respect de la vie privée de l’individu, où seuls l’événement critique et le temps précédant l’événement seraient disponibles pour un tiers, ce qui entraîne également une optimisation souhaitée à la fois de la bande passante de transmission nécessaire et des exigences de stockage de données. Il doit être apprécié que le système précédent pourrait également être configuré de telle sorte que la notification E pour la surveillance à distance d’un aîné, d’un nourrisson ou d’un patient soit en outre adaptée pour inclure des caractéristiques de suivi du visage et / ou de reconnaissance d’expression. où seuls l’événement critique et l’heure précédant l’événement seraient disponibles pour un tiers, ce qui entraînerait également une optimisation souhaitée à la fois de la bande passante de transmission nécessaire et des exigences de stockage de données. Il doit être apprécié que le système précédent pourrait également être configuré de telle sorte que la notification E pour la surveillance à distance d’un aîné, d’un nourrisson ou d’un patient soit en outre adaptée pour inclure des caractéristiques de suivi du visage et / ou de reconnaissance d’expression. où seuls l’événement critique et l’heure précédant l’événement seraient disponibles pour un tiers, ce qui entraînerait également une optimisation souhaitée à la fois de la bande passante de transmission nécessaire et des exigences de stockage de données. Il doit être apprécié que le système précédent pourrait également être configuré de telle sorte que la notification E pour la surveillance à distance d’un aîné, d’un nourrisson ou d’un patient soit en outre adaptée pour inclure des caractéristiques de suivi du visage et / ou de reconnaissance d’expression.

La confidentialité pourrait être encore améliorée pour l’utilisateur si ses données vidéo et ses données biométriques sont stockées par lui-même, sur son propre appareil ou sur son propre stockage externe ou sécurisé tiers «cloud», mais avec les métadonnées d’index de la source matériel, qui permet le séquençage, l’extrapolation, la recherche et le traitement général des données sources, restant sur un serveur central, comme, dans le cas de dossiers médicaux par exemple, chez un médecin ou un autre établissement de santé. Un tel système permettrait à la partie de surveillance d’avoir accès à la vidéo et à d’autres données au moment de la consultation, mais avec la vidéo, etc., restant en possession du sujet. Un autre avantage de séparer l’hébergement du stockage des données sources vidéo et biométriques du traitement des données, au-delà de l’amélioration de la confidentialité de l’utilisateur et de la sécurité de ses données, c’est qu’en raison de son stockage local avec le sujet, ne pas avoir à le télécharger sur le serveur de calcul entraîne à la fois une réduction des coûts et une efficacité accrue du stockage et de la bande passante des données. Cela serait également avantageux lorsqu’un tel type de téléchargement à distance de tests pour examen par du personnel médical qualifié à un endroit différent du sujet se produit dans des zones de couverture de réseau à bande passante inférieure. Un choix peut également être fait pour abaisser la fréquence d’images du matériel vidéo, à condition que cela soit rendu cohérent avec la fréquence d’échantillonnage pour confirmer l’horodatage correct, comme décrit précédemment. le fait de ne pas avoir à le télécharger sur le serveur de calcul entraîne à la fois une réduction des coûts et une efficacité accrue du stockage et de la bande passante de données. Cela serait également avantageux lorsqu’un tel type de téléchargement à distance de tests pour examen par du personnel médical qualifié à un endroit différent du sujet se produit dans des zones de couverture de réseau à bande passante inférieure. Un choix peut également être fait pour abaisser la fréquence d’images du matériel vidéo, à condition que cela soit rendu cohérent avec la fréquence d’échantillonnage pour confirmer l’horodatage correct, comme décrit précédemment. le fait de ne pas avoir à le télécharger sur le serveur de calcul entraîne à la fois une réduction des coûts et une efficacité accrue du stockage et de la bande passante de données. Cela serait également avantageux lorsqu’un tel type de téléchargement à distance de tests pour examen par du personnel médical qualifié à un endroit différent du sujet se produit dans des zones de couverture de réseau à bande passante inférieure. Un choix peut également être fait pour abaisser la fréquence d’images du matériel vidéo, à condition que cela soit rendu cohérent avec la fréquence d’échantillonnage pour confirmer l’horodatage correct, comme décrit précédemment.

Il doit être apprécié qu’avec les informations stockées au niveau du serveur central (ou du dispositif hôte), diverses techniques connues dans l’art peuvent être mises en œuvre pour sécuriser les informations et empêcher des individus ou entités non autorisés d’accéder aux informations. Ainsi, par exemple, un utilisateur peut se voir fournir (ou être autorisé à créer) un nom d’utilisateur, un mot de passe et / ou toute autre information d’identification (ou d’authentification) (par exemple, un utilisateur biométrique, un porte-clés, etc.), et le le dispositif hôte peut être configuré pour utiliser les informations d’identification (ou d’authentification) pour accorder l’accès aux informations (ou à une partie de celles-ci). Des procédures de sécurité similaires peuvent être mises en œuvre pour des tiers, tels que des prestataires de soins médicaux, des compagnies d’assurance, etc., afin de garantir que les informations ne sont accessibles qu’aux personnes ou entités autorisées. Dans certains modes de réalisation, l’authentification peut permettre l’accès à toutes les données stockées, ou à seulement une partie des données stockées (par exemple, une authentification d’utilisateur peut permettre l’accès à des informations personnelles ainsi qu’à des données vidéo et / ou biométriques stockées, alors qu’une authentification par un tiers ne peut autoriser l’accès aux vidéos stockées et / ou aux données biométriques). Dans d’autres modes de réalisation, l’authentification est utilisée pour déterminer quels services sont disponibles pour un individu ou une entité se connectant au dispositif hôte ou au site Web. Par exemple, les visiteurs du site Web (ou les non-abonnés) peuvent uniquement être en mesure de synchroniser des données vidéo / audio avec des données biométriques et / ou d’effectuer une recherche rudimentaire ou un autre traitement, tandis qu’un abonné peut être en mesure de synchroniser des données vidéo / audio avec des données biométriques. données et / ou effectuer une recherche plus détaillée ou un autre traitement (par exemple, pour créer une bande de surbrillance, etc.).

Il convient en outre de comprendre que s’il existe des avantages à conserver uniquement les métadonnées d’index sur le serveur central dans l’intérêt de l’efficacité du stockage et du téléchargement des données, ainsi que de fournir une plate-forme commune pour l’interopérabilité des différents types de données et de stocker la vidéo et / ou des données audio sur le propre appareil de l’utilisateur (par exemple, iCloud ™, DropBox ™, OneDrive ™, etc.), la présente invention n’est pas aussi limitée. Ainsi, dans certains modes de réalisation, lorsque cela est possible, il peut être avantageux de (1) stocker des données (par exemple, vidéo, audio, données biométriques et métadonnées) sur le dispositif de l’utilisateur (par exemple, permettre au dispositif de l’utilisateur de fonctionner indépendamment du dispositif hôte. ), (2) stocker des données (par exemple, vidéo, audio, données biométriques et métadonnées) sur le serveur central (par exemple, appareil hôte) (par exemple, permettre à l’utilisateur d’accéder aux données à partir de n’importe quel appareil compatible réseau),

Dans un autre mode de réalisation de la présente invention, la fonctionnalité du système est en outre (ou en variante) limitée par le logiciel fonctionnant sur le dispositif utilisateur et / ou le dispositif hôte. Par exemple, le logiciel fonctionnant sur le dispositif utilisateur peut permettre à l’utilisateur de lire les données vidéo et / ou audio, mais pas de synchroniser les données vidéo et / ou audio avec les données biométriques. Cela peut être dû au fait que le serveur central est utilisé pour stocker des données essentielles à la synchronisation (index d’horodatage, métadonnées, données biométriques, fréquence d’échantillonnage, etc.) et / ou qu’un logiciel fonctionnant sur le périphérique hôte est nécessaire pour la synchronisation. A titre d’autre exemple, le logiciel fonctionnant sur le dispositif utilisateur peut permettre à l’utilisateur de lire les données vidéo et / ou audio, seules ou synchronisées avec les données biométriques, mais peut ne pas permettre à l’appareil de l’utilisateur (ou peut limiter la capacité de l’appareil de l’utilisateur) à rechercher, extrapoler ou traiter les données biométriques pour identifier les parties pertinentes (par exemple, qui peuvent être utilisées pour créer une «bande de surbrillance» de la vidéo synchronisée / audio / données biométriques) ou pour classer les données biométriques et / ou vidéo. Cela peut être dû au fait que le serveur central est utilisé pour stocker des données critiques pour rechercher et / ou classer les données biométriques (données biométriques, métadonnées biométriques, etc.) et / ou les logiciels nécessaires à la recherche (ou effectuer une recherche avancée de) et / ou classement (ou exécution d’un classement avancé) des données biométriques. qui peut être utilisé pour créer une «bobine de mise en évidence» des données vidéo / audio / biométriques synchronisées) ou pour classer les données biométriques et / ou vidéo. Cela peut être dû au fait que le serveur central est utilisé pour stocker des données critiques pour rechercher et / ou classer les données biométriques (données biométriques, métadonnées biométriques, etc.) et / ou les logiciels nécessaires à la recherche (ou effectuer une recherche avancée de) et / ou classement (ou exécution d’un classement avancé) des données biométriques. qui peut être utilisé pour créer une «bobine de mise en évidence» des données vidéo / audio / biométriques synchronisées) ou pour classer les données biométriques et / ou vidéo. Cela peut être dû au fait que le serveur central est utilisé pour stocker des données critiques pour rechercher et / ou classer les données biométriques (données biométriques, métadonnées biométriques, etc.) et / ou les logiciels nécessaires à la recherche (ou effectuer une recherche avancée de) et / ou classement (ou exécution d’un classement avancé) des données biométriques.

Dans l’un ou tous les modes de réalisation ci-dessus, le système pourrait être en outre adapté pour inclure un mot de passe ou d’autres formes d’authentification pour permettre un accès sécurisé (ou refuser l’accès non autorisé) aux données dans l’une ou les deux directions, de sorte que l’utilisateur ait besoin d’une autorisation, pour accéder à l’hôte, ou l’hôte pour accéder aux données de l’utilisateur. 

Lorsque l’interaction entre l’utilisateur et la partie de surveillance ou l’hôte se produit en temps réel, comme lors d’une consultation vidéo sécurisée entre le patient et son médecin ou autre personnel médical, les données peuvent être échangées et visualisées via la mise en place d’un réseau privé virtuel (VPN ). Les données réelles (biométriques, vidéo, index de métadonnées, etc.) peuvent alternativement ou être cryptées à la fois au niveau de la source de données, par exemple au niveau du stockage de l’individu, qu’il soit local ou basé sur le cloud,

Dans le contexte de la surveillance du très jeune nourrisson, un problème critique et souvent inexpliqué est le syndrome de mort subite du nourrisson (SMSN). Alors que les incidences du SMSN sont souvent inexpliquées, divers dispositifs tentent d’empêcher son apparition. Cependant, en combinant les éléments du système actuel pour inclure des capteurs dans ou près du berceau du bébé pour mesurer les données biométriques pertinentes, y compris la fréquence cardiaque, le rythme de sommeil, l’analyseur d’haleine et d’autres mesures telles que la température ambiante, ainsi qu’un appareil d’enregistrement pour capturer mouvement, respiration audible ou absence de celui-ci (c.-à-d. silence) sur une période de temps prédéfinie, les divers paramètres pourraient être définis conjointement avec l’enregistrement vidéo horodaté, par le parent ou une autre partie de surveillance, pour fournir une alerte plus complète , pour initier une action ou une intervention plus opportune de l’utilisateur, ou bien de décider qu’aucune action ne serait en fait nécessaire. De plus, dans le cas, par exemple, d’une situation de surveillance de lit d’enfant, le système pourrait être configuré de manière à développer à partir d’une observation précédente, avec ou sans intervention d’une partie de surveillance, un algorithme d’apprentissage pour aider à discerner ce qui est «normal», ce qui est faux positif, ou ce qui pourrait constituer une anomalie, et donc un appel à l’action.

L’application hôte pourrait également être configurée pour lire des données vidéo qui ont été synchronisées avec des données biométriques, ou pour rechercher l’existence de certaines données biométriques. Par exemple, comme indiqué précédemment, en enregistrant une vidéo avec le son d’une personne endormie et en synchronisant l’enregistrement avec des données biométriques (par exemple, les habitudes de sommeil, l’activité cérébrale, le ronflement, les habitudes respiratoires, etc.), les données biométriques peuvent être recherchées pour identifier certaines mesures telles que les niveaux sonores, mesurés par exemple en décibels, ou les périodes de silence, dépassent ou descendent en dessous d’une valeur seuil, permettant au médecin, à l’infirmière ou au technicien médical de visionner la partie vidéo correspondante sans avoir à regarder la vidéo entière de la personne qui dort.

Un tel procédé est illustré à la Fig. 6, commençant à l’étape 700 , où des données biométriques et des données d’horodatage (par exemple, heure de début, fréquence d’échantillonnage) sont reçues (ou liées) à l’étape 702 . Les données audio / vidéo et les données d’horodatage (par exemple, heure de début, etc.) sont ensuite reçues (ou liées) à l’étape 704 . Les données d’horodatage (des étapes 702 et 704 ) sont ensuite utilisées pour synchroniser les données biométriques avec les données audio / vidéo. L’utilisateur est alors autorisé à utiliser l’audio / vidéo à l’étape 708 . Si l’utilisateur sélectionne la lecture, alors l’audio / vidéo est lu à l’étape 710 . Si l’utilisateur sélectionne la recherche, alors l’utilisateur est autorisé à rechercher les données biométriques à l’étape 712.. Enfin, si l’utilisateur sélectionne l’arrêt, alors la vidéo est arrêtée à l’étape 714 .

Il doit être apprécié que la présente invention n’est pas limitée aux étapes représentées sur la Fig. 6. Par exemple, une méthode qui permet à un utilisateur de rechercher des données biométriques qui remplissent au moins une condition, de lire la partie correspondante de la vidéo (ou une partie juste avant la condition) et d’arrêter la lecture de la vidéo après les données biométriques ne remplit plus la au moins une condition (ou juste après que les données biométriques ne remplissent plus la condition) est dans l’esprit et la portée de la présente invention. À titre d’autre exemple, si le procédé implique une interaction entre le dispositif utilisateur et le dispositif hôte pour synchroniser les données vidéo / audio et les données biométriques et / ou rechercher les données biométriques, alors le procédé peut en outre impliquer les étapes de téléchargement des données biométriques. données et / ou métadonnées vers le périphérique hôte (par exemple, dans ce mode de réalisation, les données vidéo / audio peuvent être stockées sur le dispositif utilisateur), et en utilisant les données biométriques et / ou les métadonnées pour créer un index d’horodatage pour la synchronisation et / ou pour rechercher les données biométriques pour des données pertinentes ou significatives (par ex. , données dépassant un seuil, etc.). À titre d’exemple supplémentaire, la méthode peut ne pas nécessiter l’étape706 si les données audio / vidéo et les données biométriques sont lues ensemble (synchronisées) en temps réel, ou au moment où les données sont lues (par exemple, à l’étape 710 ).

Dans un mode de réalisation de la présente invention, comme le montre la Fig. 8, les données vidéo 800 , qui peuvent également inclure des données audio, commencent à un instant «T» et se poursuivent pendant une durée de «n». Les données vidéo sont de préférence stockées en mémoire (localement et / ou à distance) et liées à d’autres données, telles qu’un identifiant 802 , l’heure de début 804 et la durée 806. Ces données relient les données vidéo à au moins une session particulière, une heure de début particulière et identifient la durée de la vidéo qui y est incluse. Dans un mode de réalisation de la présente invention, chaque session peut inclure différentes activités. Par exemple, un voyage vers une destination à Berlin, ou suivant un itinéraire spécifique un jour particulier (session) peut impliquer une balade à vélo à travers la ville (première activité) et une promenade dans un parc (deuxième activité). Ainsi, comme le montre la Fig. 9, l’identifiant 802 peut inclure à la fois un identifiant de session 902 , identifiant de manière unique la session via un identifiant global unique (GUID), et un identifiant d’activité 904, identifiant de manière unique l’activité via un identifiant global unique (GUID), où la relation session / activité est celle d’un parent / enfant.

Dans un mode de réalisation de la présente invention, comme le montre la Fig. 10, les données biométriques 1000 sont stockées en mémoire et liées à l’identifiant 802 et à une fréquence d’échantillonnage «m» 1104 . Cela permet aux données biométriques d’être liées aux données vidéo lors de la lecture. Par exemple, si l’identifiant 802 est un, l’heure de début 804 est 13h00, la durée de la vidéo est d’une minute et la fréquence d’échantillonnage 1104 est de 30 spm, alors la lecture de la vidéo à 14h00 entraînera la première biométrique valeur (biométrique ( 1 )) à afficher (par exemple, sous la vidéo, sur la vidéo, etc.) à 14h00, la deuxième valeur biométrique (biométrique ( 2)) à afficher (par exemple, sous la vidéo, sur la vidéo, etc.) deux secondes plus tard, et ainsi de suite jusqu’à ce que la vidéo se termine à 14 h 01. Alors que les données d’auto-réalisation peuvent être stockées comme des données biométriques (par exemple, liées à une fréquence d’échantillonnage), si ces données ne sont reçues que périodiquement, il peut être plus avantageux de stocker ces données 110 comme le montre la Fig. 11, c’est-à-dire lié à l’identifiant 802 et à un horodatage 1104 , où «m» est soit l’heure à laquelle les données d’auto-réalisation 1100 ont été reçues, soit un décalage entre cette heure et l’heure de début 804 (par exemple, dix minutes et quatre secondes après l’heure de démarrage, etc.).

Ceci peut être vu, par exemple, sur la Fig. 14, où les données vidéo commencent au temps T, les données biométriques sont échantillonnées toutes les deux secondes (30 spm) et les données d’auto-réalisation sont reçues au temps T + 3 (ou trois unités après l’heure de début). Pendant la lecture de la vidéo 1402 , une première valeur biométrique 1404 est affichée au temps T + 1, des premières données d’auto-réalisation 1406 sont affichées au temps T + 2 et une seconde valeur biométrique 1406s’affiche au temps T + 4. En stockant des données de cette manière, les données vidéo et non vidéo peuvent être stockées séparément les unes des autres et synchronisées en temps réel, ou au moment où la vidéo est en cours de lecture. Il doit être apprécié que bien que le stockage séparé des données puisse être avantageux pour des dispositifs ayant une mémoire et / ou une puissance de traitement minimales, la plate-forme client peut être configurée pour créer de nouvelles données vidéo, ou des données qui comprennent à la fois des données vidéo et non vidéo affichées de manière synchrone. Une telle caractéristique peut être avantageuse pour créer une bande de surbrillance, qui peut ensuite être partagée en utilisant des sites Web de médias sociaux, tels que Facebook ™ ou Youtube ™, et lue en utilisant un logiciel de lecture standard, tel que Quicktime ™. Comme discuté plus en détail ci-dessous, une bande de surbrillance peut inclure diverses parties (ou clips) de données vidéo (par exemple, lorsqu’une certaine activité a lieu, etc.

Lorsque les données échantillonnées sont ensuite affichées, la plate-forme client peut être configurée pour afficher ces données à l’aide de certaines techniques d’extrapolation. Par exemple, dans un mode de réalisation de la présente invention, comme le montre la Fig. 12, où une première valeur biométrique 1202 est affichée à T + 1, une deuxième valeur biométrique 1204 est affichée à T + 2 et une troisième valeur biométrique 1206 est affichée à T + 3, les données biométriques peuvent être affichées à des moments non échantillonnés en utilisant des techniques d’extrapolation connues, notamment l’interpolation linéaire et non linéaire et toutes les autres techniques d’extrapolation et / ou d’interpolation généralement connues de l’homme du métier. Dans un autre mode de réalisation de la présente invention, comme le montre la Fig. 13, la première valeur biométrique 1202 reste sur l’affichage jusqu’à ce que la deuxième valeur biométrique 1204 soit affichée, la deuxième valeur biométrique 1204 reste sur l’affichage jusqu’à ce que la troisième valeur biométrique 1206 soit affichée, et ainsi de suite.

En ce qui concerne la liaison des données à un identifiant, qui peut être lié à d’autres données (par exemple, heure de début, fréquence d’échantillonnage, etc.), si les données sont reçues en temps réel, les données peuvent être liées au (x) identifiant (s) pour la session (et / ou l’activité) en cours. Cependant, lorsque des données sont reçues après coup (par exemple, après la fin d’une session), il existe plusieurs façons dont les données peuvent être liées à une session et / ou une activité particulière (ou un ou plusieurs identifiants associés). Les données peuvent être liées manuellement (par exemple, par l’utilisateur) ou automatiquement liées via l’application. En ce qui concerne ce dernier, cela peut être accompli, par exemple, en comparant la durée des données reçues (par exemple, la longueur de la vidéo) avec la durée de la session et / ou de l’activité, en supposant que les données reçues sont liées au session et / ou activité la plus récente, ou en analysant les données incluses dans les données reçues. Par exemple, dans un mode de réalisation, les données incluses avec les données reçues (par exemple, des métadonnées) peuvent identifier une heure et / ou un emplacement associés aux données, qui peuvent ensuite être utilisés pour relier les données reçues à la session et / ou à l’activité. Dans un autre mode de réalisation, le dispositif informatique pourrait afficher ou lire des données (par exemple, un code à barres, tel qu’un code QR, un son, tel qu’une séquence répétée de notes, etc.) qui identifie la session et / ou l’activité. Un enregistreur vidéo / audio externe pourrait enregistrer les données d’identification (telles qu’affichées ou lues par le dispositif informatique) avec (par exemple, avant, après ou pendant) l’utilisateur et / ou son environnement. L’application pourrait alors rechercher les données vidéo / audio pour identifier des données, et utiliser ces données pour relier les données vidéo / audio à une session et / ou une activité. La partie d’identification des données vidéo / audio pourrait alors être supprimée par l’application si on le souhaite. Dans un autre mode de réalisation, un code à barres (par exemple, un code QR) pourrait être imprimé sur un dispositif physique (par exemple, un module de test médical, qui peut permettre la communication de données médicales sur un réseau (par exemple, via un téléphone intelligent)) et utilisé (comme décrit précédemment) pour synchroniser la vidéo de l’utilisateur utilisant l’appareil avec les données fournies par l’appareil. Dans le cas d’un module de test médical, le code-barres imprimé sur le module pourrait être utilisé pour synchroniser la vidéo du test avec le résultat du test fourni par le module. Dans encore un autre mode de réalisation, à la fois le dispositif informatique et l’enregistreur vidéo / audio externe sont utilisés pour enregistrer la vidéo et / ou l’audio de l’utilisateur (par exemple, l’utilisateur indiquant «commencer la session de vélo de Berlin», etc. ) et d’utiliser les données fournies par l’utilisateur pour lier les données vidéo / audio à une session et / ou une activité. Par exemple, le dispositif informatique peut être configuré pour lier les données fournies par l’utilisateur avec une session et / ou une activité particulière (par exemple, une qui est démarrée, une qui est sur le point de démarrer, une qui vient de se terminer, etc.), et à utiliser les données fournies par l’utilisateur dans les données vidéo / audio pour lier les données vidéo / audio à la session et / ou à l’activité particulière.

Dans un mode de réalisation de la présente invention, la plate-forme client (ou application) est configurée pour fonctionner sur un téléphone intelligent ou une tablette. La plate-forme (seule ou associée à un logiciel fonctionnant sur le dispositif hôte) peut être configurée pour créer une session, recevoir des données vidéo et non vidéo pendant la session et lire des données vidéo ensemble (synchronisées) avec des données non vidéo. La plate-forme peut également permettre à un utilisateur de rechercher une session, de rechercher certains événements vidéo et / ou non vidéo et / ou de créer une bande de temps fort. FIGUES. 15-29 montrent des captures d’écran exemplaires d’une telle plate-forme.

Par exemple, la Fig. 15 montre un exemple d’écran de «connexion» 1500 , permettant à un utilisateur de se connecter à l’application et d’avoir accès à des données spécifiques à l’utilisateur liées à l’application, telles que stockées sur le dispositif informatique et / ou le dispositif informatique hôte. La connexion peut impliquer un ID utilisateur et un mot de passe propres à l’application, au cloud de l’entreprise ou à un site Web de services sociaux, tel que Facebook ™.

Une fois que l’utilisateur est connecté, l’utilisateur peut être autorisé à créer une session via un exemple d’écran de «création de session» 1600 , comme le montre la Fig. 16. Lors de la création d’une session, l’utilisateur peut être autorisé à sélectionner une caméra (par exemple, interne au dispositif informatique, externe au dispositif informatique (par exemple, accessible via Internet, connectée au dispositif informatique via une connexion filaire ou sans fil) , etc.) qui fourniront des données vidéo. Une fois qu’une caméra est sélectionnée, les données vidéo 1602de l’appareil photo peut s’afficher à l’écran. L’utilisateur peut également être autorisé à sélectionner un dispositif biométrique (par exemple, interne au dispositif informatique, externe au dispositif informatique (par exemple, accessible via Internet, connecté au dispositif informatique via une connexion filaire ou sans fil), etc.) qui fournira des données biométriques. Une fois qu’un dispositif biométrique est sélectionné, les données biométriques 1604 du dispositif biométrique peuvent être affichées sur l’écran. L’utilisateur peut alors démarrer la session en cliquant sur le bouton «démarrer la session» 1608. Alors que le processus de sélection est de préférence exécuté avant le début de la session, l’utilisateur peut différer la sélection de la caméra et / ou du dispositif biométrique jusqu’à la fin de la session. Cela permet à l’application de recevoir des données qui ne sont pas disponibles en temps réel ou qui sont fournies par un appareil qui n’est pas encore connecté au dispositif informatique (par exemple, une caméra externe qui sera branchée sur le dispositif informatique une fois la session plus de).

Il doit être apprécié que dans un mode de réalisation préféré de la présente invention, le fait de cliquer sur le bouton «démarrer la session» 1608 démarre non seulement une minuterie 1606 qui indique une durée actuelle de la session, mais il déclenche une heure de début qui est stockée en mémoire et liée. à un identificateur global unique (GUID) pour la session. En liant la vidéo et les données biométriques au GUID et en liant le GUID à l’heure de début, les données vidéo et biométriques sont également (par définition) liées à l’heure de début. D’autres données, telles que la fréquence d’échantillonnage, peuvent également être liées aux données biométriques, soit en liant les données aux données biométriques, soit en liant les données au GUID, qui est à son tour lié aux données biométriques.

Soit avant le démarrage de la session, soit après la fin de la session, l’utilisateur peut être autorisé à entrer un nom de session via un exemple d’écran «nom de session» 1700 , comme illustré sur la Fig. 17. De même, l’utilisateur peut également être autorisé à saisir une description de session via un exemple d’écran de «description de session» 1800 , comme illustré à la Fig. 18.

figure. 19 montre un exemple d’écran «session démarrée» 1900 , qui est un écran que l’utilisateur peut voir pendant que la session est en cours d’exécution. Sur cet écran, l’utilisateur peut voir les données vidéo 1902 (si elles sont fournies en temps réel), les données biométriques 1904 (si elles sont fournies en temps réel) et le temps de fonctionnement actuel de la session 1906 . Si l’utilisateur souhaite mettre en pause la session, l’utilisateur peut appuyer sur le bouton «pause session» 1908 , ou si l’utilisateur souhaite arrêter la session, l’utilisateur peut appuyer sur le bouton «arrêter la session» (non représenté). En appuyant sur le bouton «arrêter la session» (non illustré), la session est terminée et une heure d’arrêt est stockée en mémoire et liée au GUID de session. Alternativement, en appuyant sur le bouton «Pause session»1908 , un temps de pause (premier temps de pause) est stocké en mémoire et lié au GUID de session. Une fois mise en pause, la session peut alors être reprise (par exemple, en appuyant sur le bouton «Reprendre la session», non représenté), ce qui entraînera une heure de reprise (première heure de reprise) qui sera stockée en mémoire et liée au GUID de session. Indépendamment du fait qu’une session soit démarrée et arrêtée (c’est-à-dire, résultant en une seule vidéo continue), ou démarrée, mise en pause (un nombre quelconque de fois), reprise (un nombre quelconque de fois) et arrêtée (c’est-à-dire, résultant en une pluralité de vidéos clips), pour chaque temps de démarrage / pause stocké en mémoire, il doit y avoir un temps d’arrêt / reprise correspondant stocké en mémoire.

Une fois qu’une session a été arrêtée, elle peut être revue via un exemple d’écran de «révision de session» 2000, comme le montre la Fig. 20. Dans sa forme la plus simple, l’écran de revue peut lire des données vidéo liées à la session (par exemple, soit une seule vidéo continue si la session n’inclut pas au moins une pause / reprise, soit plusieurs clips vidéo lus les uns après les autres si la session comprend au moins une pause / reprise, ou plusieurs clips vidéo lus ensemble si les multiples clips vidéo sont liés les uns aux autres (par exemple, deux vidéos (par exemple, à partir de différents points de vue) de l’utilisateur effectuant une activité particulière, une première vidéo de l’utilisateur la réalisation d’ une activité particulière lors de l’ affichage d’ une seconde vidéo, comme une vidéo de formation). Si l’utilisateur veut voir les données non vidéo affichées , ainsi que les données vidéo, l’utilisateur peut appuyer sur le bouton « Afficher les options de graphique » 2022. En appuyant sur ce bouton, l’utilisateur se voit présenter un exemple d’écran «option d’affichage de graphique» 2100 , comme le montre la Fig. 21. Ici, l’utilisateur peut sélectionner les données qu’il aimerait voir avec les données vidéo, telles que les données biométriques (par exemple, fréquence cardiaque, variance de fréquence cardiaque, vitesse de l’utilisateur, etc.), les données environnementales (par exemple, température , altitude, GPS, etc.) ou des données d’auto-réalisation (par exemple, comment l’utilisateur s’est senti pendant la session). figure. 22 montre un exemple d’écran de «session d’examen» 2000 qui comprend à la fois des données vidéo 2202 et des données biométriques, qui peuvent être représentées sous forme de graphique 2204 ou sous forme écrite 2206. Si plus d’un individu peut être vu dans la vidéo, l’application peut être configurée pour afficher des données biométriques sur chaque individu, soit à la fois, soit tel que sélectionné par l’utilisateur (par exemple, permettre à l’utilisateur de visualiser les données biométriques sur un premier individu en sélectionnant le premier individu, permettant à l’utilisateur de visualiser des données biométriques sur un second individu en sélectionnant le second individu, etc.).

figure. 23 montre un exemple d’écran de «carte» 2300 , qui peut être utilisé pour montrer des données GPS à l’utilisateur. En variante, les données GPS peuvent être présentées avec les données vidéo (par exemple, sous les données vidéo, sur les données vidéo, etc.). Un exemple d’écran «récapitulatif» 2400 de la session peut également être présenté à l’utilisateur (voir figure 24), affichant des informations de session telles que le nom de session, la description de session, diverses métriques, etc.

En stockant séparément les données vidéo et non vidéo, les données peuvent être facilement recherchées. Par exemple, la Fig. 25 montre un exemple d’écran de «recherche biométrique» 2500 , dans lequel un utilisateur peut rechercher une valeur ou une plage biométrique particulière (c’est-à-dire un événement biométrique). A titre d’exemple, l’utilisateur peut vouloir sauter à un point de la session où sa fréquence cardiaque est comprise entre 95 et 105 battements par minute (bpm). figure. 26 montre un exemple d’écran de «premier résultat» 2600 où la fréquence cardiaque de l’utilisateur est à 100,46 bmp vingt minutes et quarante-deux secondes après le début de la session (voir, par exemple, 2608 ). figure. 27 montre un exemple d’écran « second résultat » 2700 où la fréquence cardiaque de l’utilisateur est à 100,48 bmp vingt-trois minutes et quarante-huit secondes après le début de la session (voir, par exemple,2708 ). Il convient de noter que d’autres événements peuvent être recherchés dans une session, y compris des événements vidéo et des événements d’auto-réalisation.

Non seulement les données d’une session peuvent être recherchées, mais aussi les données de plusieurs sessions. Par exemple, la Fig. 28 montre un exemple d’écran de «recherche de session» 2800 , dans lequel un utilisateur peut entrer des critères de recherche particuliers, y compris la date de session, la durée de session, les événements biométriques, l’événement vidéo, l’événement d’auto-réalisation, etc. 29 montre un exemple d’écran de «liste» 2900 , montrant les sessions qui répondent aux critères saisis.

La description précédente d’un système et d’un procédé pour utiliser, traiter et afficher des données biométriques, ou une de celles-ci, a été présentée à des fins d’illustration et de description. Elle n’est pas destinée à être exhaustive ou à limiter l’invention aux formes précises décrites, et de nombreuses modifications et variations sont possibles à la lumière des enseignements ci-dessus. L’homme du métier appréciera qu’il existe un certain nombre de façons de mettre en œuvre les caractéristiques ci-dessus, et que la présente invention n’est pas limitée à une manière particulière de mettre en œuvre ces caractéristiques. L’invention est uniquement définie par les revendications suivantes.

Plus de révélations bientôt!


Nous sommes financés uniquement par nos lecteurs les plus généreux et nous voulons continuer ainsi. Aidez SILVIEW.media à livrer plus, mieux, plus rapidement , faites un don ici , tout y contribue. Je vous remercie!

! Les articles peuvent toujours faire l’objet de modifications ultérieures afin de les perfectionner

2 Commentaires

  1. Surveillance de tout et de n’importe quoi par n’importe qui dans n’importe quel but, et il faut être vraiment naïf pour croire à la confidentialité des données. On donne des brevets commerciaux pour ça ?

  2. Oui Catherine,

    Pour expérimenter les nouvelles technologies oui, ils sont capables de tout y compris de détourner des datas sensibles pour cela. Avec la 5G + des logiciels open source, il vous suffit de regarder c’est officiel par audit de l’assemblée Nationale présenté en septembre 2019 ici:

    https://ceis.eu/wp-content/uploads/2019/09/20190725-audition-ceis-assemblee-nationale-cybersecurite-europe-1.pdf

    Puis sur le plan de la cyber sécurité informatique en France et en Europe en date du 14 novembre 2019 ici:

    http://www.assemblee-nationale.fr/dyn/15/rapports/due/l15b2415_rapport-information

    Ce qui donne le droits en vertu de la protection des lanceurs d’alertes par l’application de la DIRECTIVE (UE) 2019/1937 DU PARLEMENT EUROPÉEN ET DU CONSEIL active depuis le 23 octobre 2019 sur la protection des personnes qui signalent des violations du droit de l’Union ici:

    https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=CELEX:32019L1937

    Et en lien avec d’autres irrégularités manquant aux standards financiers, c’est ici que cela se passe:

    https://acpr.banque-france.fr/sanctionner/recueil-de-jurisprudence

    Sachez Catherine que pour décrypter tout cela, il faut avoir décroché un ticket de tombola en lien avec une sanction en jurisprudence juste ci dessus! 😉

    Voilà comment on peut revenir à la source en décryptant pour comprendre les intentions de base lors des développements non toujours sécurisés, c’est toujours lié à des histoires de virus 😉

    Bien à vous
    Nicole

Laisser un commentaire