Algoritmos de búsqueda de candidatos de Pacientes ¿Como resolver el problema de los duplicados en los MPI? Servicios de identificaciones de Personas vs Búsquedas
Servicios de identificaciones de Personas vs Búsquedas: Uno de los problemas mas serios que enfrenta los sistemas de salud es la fragmentación de la información. Muchas veces no podemos acceder a todos los datos de los pacientes porque su información esta fragmentada asociada a historias clinicas distintas dentro de un maestro de pacientes lo que hace virtualmente imposible juntar toda la información de una misma persona para analizarla correctamente. Es por eso que mantener depurado y auditado un maestro de pacientes es una tarea fundamental. Hay distintas estrategias para miminizar este problema. La comparación de pacientes proporciona la capacidad de unir a un individuo único con un conjunto único de datos en una base de datos o conjunto de datos de atención médica. En los hospitales, esta base de datos se denomina MPI o Enterprise Master Patient Index (EMPI). En el ámbito de la atención médica, los MPI para grandes redes integradas de entrega, organizaciones de información de salud.
Estas estragegias incluyen la contemplación de algorritmos fonéticos como Levenshtein, Soundex, Needleman-Wunsch o Metaphone
y hacer macheos por conjuntos de datos minimos en lugar de los querys tradicionales con el objetivo de encontrar datos del mismo paciente que pudieran haber sido mal tipeados
Estos algorritmos de lógica difusa y/o Bayesiano se aplican sobre un set de datos y son utilizados por servicios de indentificacion de presonas en lugar de busquedas traticionales
Set Mínimo de datos para la CUS son 6
- Apellido (primero y siguientes)
- Nombre (primero y siguientes)
- sexo
- Tipo de Documento
- Número de documento
- Fecha de Nacimiento
y sobre estos se asignas pesos de pruebas o rutinas probabisticas para identificar candidatos que pudieran haber sido ingresados con errores de tipeo. Cálculo de Pesos
Teniendo en cuenta los candidatos obtenidos en el punto anterior se utiliza el algoritmo Jaro-Winkler para medir el grado de similitud entre dos cadenas. La puntuación
que devuelve el algoritmo se normaliza de forma que 0 equivale a ninguna similitud y
1 es una coincidencia exacta. Se aplica por separado el algoritmo a cada uno de los
elementos del conjunto mínimo de datos y luego se multiplica por un peso que pondera a los atributos. La suma de lo anterior es el peso resultante que es una medida de la
similitud entre el conjunto mínimo de datos de un paciente y el conjunto mínimo de
datos de cada uno de sus objetos candidatos.
Referencias
https://pdfs.semanticscholar.org/1a26/342bf18c6e8785d402453577bace42ee0887.pdf
http://sce2.umkc.edu/csee/leeyu/Mahi/medical-data8.pdf
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4832129/
https://estandaresparadummies.blogspot.com/2019/08/que-algoritmos-fonetico-es-mejor-usar.html
Comentarios