Algoritmos de búsqueda de candidatos de Pacientes ¿Como resolver el problema de los duplicados en los MPI? Servicios de identificaciones de Personas vs Búsquedas


Servicios de identificaciones de Personas vs Búsquedas: Uno de los problemas mas serios que enfrenta los sistemas de salud es la fragmentación de la información. Muchas veces no podemos acceder a todos los datos de los pacientes porque su información esta fragmentada asociada a historias clinicas distintas dentro de un maestro de pacientes lo que hace virtualmente imposible juntar toda la información de una misma persona para analizarla correctamente. Es por eso que mantener depurado y auditado un maestro de pacientes es una tarea fundamental. Hay distintas estrategias para miminizar este problema. La comparación de pacientes proporciona la capacidad de unir a un individuo único con un conjunto único de datos en una base de datos o conjunto de datos de atención médica. En los hospitales, esta base de datos se denomina MPI o Enterprise Master Patient Index (EMPI). En el ámbito de la atención médica, los MPI para grandes redes integradas de entrega, organizaciones de información de salud.
Estas estragegias incluyen la contemplación de algorritmos fonéticos como Levenshtein, Soundex, Needleman-Wunsch o Metaphone  
y hacer macheos por conjuntos de datos minimos en lugar de los querys tradicionales con el objetivo de encontrar datos del mismo paciente que pudieran haber sido mal tipeados
Estos algorritmos de lógica difusa y/o Bayesiano se aplican sobre un set de datos y son utilizados por servicios de indentificacion de presonas en lugar de busquedas traticionales

Set Mínimo de datos para la CUS son 6
  1. Apellido (primero y siguientes)
  2. Nombre (primero y siguientes)
  3. sexo
  4. Tipo de Documento
  5. Número de documento
  6. Fecha de Nacimiento

y sobre estos se asignas pesos de pruebas o rutinas probabisticas para identificar candidatos que pudieran haber sido ingresados con errores de tipeo. Cálculo de Pesos Teniendo en cuenta los candidatos obtenidos en el punto anterior se utiliza el algoritmo Jaro-Winkler para medir el grado de similitud entre dos cadenas. La puntuación que devuelve el algoritmo se normaliza de forma que 0 equivale a ninguna similitud y 1 es una coincidencia exacta. Se aplica por separado el algoritmo a cada uno de los elementos del conjunto mínimo de datos y luego se multiplica por un peso que pondera a los atributos. La suma de lo anterior es el peso resultante que es una medida de la similitud entre el conjunto mínimo de datos de un paciente y el conjunto mínimo de datos de cada uno de sus objetos candidatos.


Referencias
https://pdfs.semanticscholar.org/1a26/342bf18c6e8785d402453577bace42ee0887.pdf
http://sce2.umkc.edu/csee/leeyu/Mahi/medical-data8.pdf
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4832129/
https://estandaresparadummies.blogspot.com/2019/08/que-algoritmos-fonetico-es-mejor-usar.html

Comentarios

Entradas populares de este blog

¿Qué es la JCAHO Joint Commission on Accreditation of Healthcare Organizations?

PARSEO DEL CODIGO PDF417 DEL DNI ARGENTINO

¿Como instalar El Cliente de SOPHOS VPN ?