En el ámbito de la teoria de la informacion la entropía, también llamada entropía de la información, mide la incertidumbre de una fuente de informacion.
La Entropía también se puede considerar como la cantidad de
información promedio que contienen los símbolos usados. Los símbolos con
menor probabilidad son los que aportan mayor información; por ejemplo,
si se considera como sistema de símbolos a las palabras en un texto,
palabras frecuentes como "que", "el", "a" aportan poca información.
Mientras que palabras menos frecuentes como "corren", "niño", "perro"
aportan más información. Si de un texto dado borramos un "que",
seguramente no afectará a la comprensión y se sobreentenderá, no siendo
así si borramos la palabra "niño" del mismo texto original. Cuando todos
los símbolos son igualmente probables (distribución de probabilidad
plana), todos aportan información relevante y la entropía es máxima.
El concepto de entropía es usado en termodinamica,mecanica estadistica y teoria de la informacion.
En todos los casos la entropía se concibe como una "medida del
desorden" o la "peculiaridad de ciertas combinaciones". La Entropía
puede ser considerada como una medida de la incertidumbre y de la
información necesarias para, en cualquier proceso, poder acotar, reducir
o eliminar la incertidumbre. Resulta que el concepto de información y
el de entropía están ampliamente relacionados entre sí, aunque se
necesitaron años de desarrollo de la mecanica estadistica y de la teoria de la informacion. antes de que esto fuera percibido.
Tomado de http://es.wikipedia.org/wiki/Entrop%C3%ADa_%28informaci%C3%B3n%29
Sos un idiota, si vas a hacer un blog para copiar y pegar, mejor pegate un tiro y le haces un favor a la sociedad, que imbecil!!!
ResponderEliminarOye, tranquilo viejo JAJAJAJAJAJA.
EliminarxD
Eliminarjajajja
ResponderEliminarque idiota
ResponderEliminarQue pendejo!
ResponderEliminarLo mismo que wikipedia xd
ResponderEliminarLo mismo que wikipedia xd
ResponderEliminar