Untitled - infonomia.com

Anuncio
Índice
1. Gestión del conocimiento, un concepto aún confuso ..................................................................................................5
2. Sobre el conocimiento ...................................................................................................................................................6
3. "Leaky or sticky?" ...........................................................................................................................................................7
4. La "Library of Congress", la CIA y el "bibliotecario perfecto" .....................................................................................8
5. Invertir en conocimiento para gestionar el conocimiento ..........................................................................................9
6. Ba .................................................................................................................................................................................10
7. Utilidad y usabilidad de los sistemas ..........................................................................................................................11
8. Niveles del conocimiento ............................................................................................................................................12
9. ¿Conocimiento en el fútbol? .......................................................................................................................................13
10. Congreso Anual de la ASIS (&T) ..............................................................................................................................14
11. El contexto social: comunidades de práctica ............................................................................................................15
12. El siglo de la bioinfonomía........................................................................................................................................17
13. e-science ....................................................................................................................................................................18
14. Ideas originales en GC ...............................................................................................................................................20
15. Testimonios del pasado .............................................................................................................................................21
16. Indicios del futuro .....................................................................................................................................................22
17. Prisioneros del dilema ...............................................................................................................................................24
18. Instinto de cooperación ............................................................................................................................................26
19. Creación de capital social ..........................................................................................................................................27
20. Volatilidad y virtualidad ............................................................................................................................................28
21. Conocimiento implícito ...........................................................................................................................................29
22. Organizaciones basadas en el conocimiento ............................................................................................................30
23. ¿Gestión del conocimiento sin tecnología? ..............................................................................................................31
24. Evolución ...................................................................................................................................................................32
25. Management evolutivo .............................................................................................................................................33
26. Ordenadores cuánticos .............................................................................................................................................34
Agustí Canals
Know-org
2
27. Gestión del conocimiento para el terror ..................................................................................................................35
28. Prácticas efectivas de gestión del conocimiento .......................................................................................................36
29. Complejidad, organizaciones y conocimiento .........................................................................................................37
30. El premio Nobel de Infonomía .................................................................................................................................38
31. El teorema del elefante ..............................................................................................................................................39
32. Aprender a nadar en seco ..........................................................................................................................................40
33. Límites en la articulación explícita del conocimiento .............................................................................................41
34. Compartir conocimiento, ¿hasta dónde? .................................................................................................................42
35. Paisajes estratégicos ...................................................................................................................................................43
36. k-Life ..........................................................................................................................................................................44
37. GC en la tercera fase ..................................................................................................................................................45
38. Interacción social ......................................................................................................................................................46
39. De dónde viene la gestión del conocimiento: tendencias ........................................................................................47
40. De dónde viene la gestión del conocimiento: tradiciones .......................................................................................48
41. Qué entienden las empresas por GC ........................................................................................................................49
42. Gestionar conocimiento en la universidad ..............................................................................................................50
43. La investigación científica y la GC ............................................................................................................................51
44. Shock: compartir el conocimiento manteniendo el control ....................................................................................52
45. El principio 007 .........................................................................................................................................................53
46. Cynefin ......................................................................................................................................................................54
47. Diez líneas de futuro .................................................................................................................................................55
48. El valor del conocimiento .........................................................................................................................................56
49. Rutinas, "memes", "kenes" .........................................................................................................................................57
50. La importancia de la competencia informacional ...................................................................................................58
51. El espacio aún cuenta, pero menos ...........................................................................................................................59
52. e-Learning y Gestión del Conocimiento ..................................................................................................................60
53. GC en medicina: hacia el JIT .....................................................................................................................................61
Agustí Canals
Know-org
3
54. ¿Qué tipo de bien es el conocimiento? ......................................................................................................................62
55. Crecimiento ...............................................................................................................................................................63
56. Evitar el modelo WORN ...........................................................................................................................................64
57. Olfato de gol ..............................................................................................................................................................65
58. "Aprender haciendo"... otra cosa ..............................................................................................................................66
59. Conocer es también saber interpretar ......................................................................................................................67
60. Organizar la GC .........................................................................................................................................................68
61. La Gestión del Conocimiento en las nuevas organizaciones ...................................................................................69
Agustí Canals
Know-org
4
1. Gestión del conocimiento, un concepto aún confuso
Durante los últimos dos o tres años el término Gestión del Conocimiento se ha convertido en uno de los
"buzzwords" más utilizados en el mundo empresarial. Sin embargo, paradójicamente, cada vez es más difícil saber
qué significa. Es imposible encontrar una base conceptual común entre todos los que claman ser expertos en el
tema.
A mi modo de ver, ello se debe principalmente a tres razones. La primera hace referencia a la segunda parte del
término: el conocimiento. Desde tiempo inmemorial, los filósofos se han preocupado por eso que llamamos
conocimiento. Desde Platón hasta Popper, pasando por la rivalidad entre racionalistas y empiristas, la epistemología
(ciencia que trata de los métodos, fundamentos y valor del conocimiento) se ha ocupado del tema sin llegar a una
conclusión clara. No es extraño, pues, que sea difícil definir qué significa gestionar un concepto tan escurridizo.
La segunda razón es de índole mucho más prosaica. Cuando aparece un término que hace fortuna en el mundo
empresarial y, como consecuencia, se convierte en una buena tarjeta de presentación, se produce el fenómeno
conocido como “bandwagon effect”. El término en cuestión se constituye en una especie de atractor de un gran
número de iniciativas dispersas que tienen mucha, poca o a veces ninguna relación con el concepto original. Los
impulsores de esas iniciativas pretenden conseguir una mayor visibilidad, prestigio y, en última instancia,
rentabilidad de sus proyectos subiéndose al carro que está de moda. Así, encontramos bajo el epígrafe de gestión del
conocimiento desde sistemas informáticos hasta planificación de recursos humanos, pasando por estrategias de
cambio organizacional. Inevitablemente, la consecuencia es que el concepto original queda completamente
desdibujado.
La tercera razón tiene cierta relación con la segunda, pero es un poco más profunda. La gestión del
conocimiento tiene como objeto la organización, y una organización es un sistema social. Como expone Martin
Hollis en su libro “The Philosophy of Social Science” (http://www.amazon.com/exec/obidos/ASIN/0521447801/
infonomia), hay muchos paradigmas diferentes a la hora de intentar comprender cómo funcionan los sistemas
sociales
o,
tal
como
dice
Gareth
Morgan
en
“Images
of
Organization”
(http://www.amazon.com/exec/obidos/ASIN/0761906347/ infonomia), muchas metáforas aplicables a las
organizaciones. Es suficiente echar un vistazo a algunos recopilatorios de artículos de autores de prestigio sobre
Gestión del Conocimiento, como el “Harvard Business Review on Knowledge Management”
(http://www.amazon.com/exec/obidos/ASIN/0875848818/infonomia) o el número especial de la revista “California
Management
Review”
sobre
“Knowledge
and
the
Firm”
(http://www.haas.berkeley.edu/
News/cmr/contentsKI.html), ambos muy recomendables, para darse cuenta de esa disparidad de enfoques. Cada
visión proviene de paradigmas diferentes y, por tanto es muy difícil que puedan constituir simplemente al agruparse
una disciplina coherente.
No se me ocurre ningún antídoto para las dos primeras razones que no sea el avance de la ciencia cognitiva en
el primer caso y el paso del tiempo en el segundo, pero quizás podamos avanzar en la tercera asumiendo una
interdisciplinariedad que se hace cada vez más necesaria para la resolución de los problemas de la nueva economía,
integrando los conocimientos provenientes de distintos ámbitos al mismo tiempo que creamos nuevos paradigmas.
Se trata, una vez más, de idear nuevos enfoques mediante una sinapsis de disciplinas o “consilience”, actitud siempre
presente en el espíritu de Infonomia.com (http://www.infonomia.com/extranet/index.asp?idm=1&idrev=1&num
=454).
Agustí Canals
Know-org
5
2. Sobre el conocimiento
Si en este espacio pretendemos tratar aspectos del uso y la generación de conocimiento en las organizaciones, bueno
sería tener una idea clara de qué es eso que llamamos conocimiento. Pero ya vimos en el primer mensaje de KnowOrg que eso no es tarea fácil...
El conocimiento ha sido una preocupación constante desde los primeros filósofos y científicos. Aún así, no se
ha llegado aún (y quizás nunca se llegue) a un acuerdo respecto a qué significa ese concepto. Sin embargo, ha habido
a lo largo de la historia del pensamiento varios puntos de vista sobre el tema. Personalmente, me ha sido útil
conocer, aunque sea superficialmente (no soy, ni mucho menos, experto en filosofía), algunos de ellos para
formarme una imagen más coherente de ese concepto.
Entre los filósofos clásicos, empezando por Platón, parece haber un consenso en que el conocimiento puede
definirse como “una creencia cierta justificada”. Es decir, para poder decir que poseemos un conocimiento debemos
albergar una creencia, que esa creencia sea objetivamente verdadera y además que su veracidad se sustente en
hechos suficientemente sólidos.
Parece una definición razonable. Sin embargo, podemos preguntarnos qué ocurre con el llamado conocimiento
tácito introducido por el filósofo Michael Polanyi (del que sin duda volveremos a hablar en varias ocasiones) en
algunas de sus obras como “Personal Knowledge” (http://www.amazon.com/exec/obidos/ASIN/0226672883/
infonomia) o “Tacit Dimension” (http://www.amazon.com/exec/obidos/ASIN/0844659991/infonomia). Todos
poseemos algún tipo de conocimiento del que ni tan siquiera somos conscientes, como el que nos permite nadar o
montar en bicicleta. Es difícil relacionar ese conocimiento con algún tipo de creencia consciente…
Por otra parte, en muchas ocasiones es imposible determinar la veracidad objetiva de una proposición. Para el
filósofo austriaco Karl Popper, eso es imposible desde un punto de vista lógico. Se puede saber con certeza que una
suposición es falsa, cuando aparece un contra-ejemplo que la desmiente. Sin embargo, aseverar que una suposición
es verdadera requeriría comprobar que se cumple en todos los casos posibles, y eso no está a nuestro alcance. Así,
para Popper todo conocimiento es provisional. Una simple suposición puede ser utilizada y considerada como
conocimiento mientras no aparezca un hecho que la contradiga. En ese momento dejaría de ser conocimiento. Ni
la veracidad ni la justificación, por tanto, parecen muy claras.
El economista Kenneth Arrow propone una visión que me parece muy interesante, y que es incluso más
pragmática que la anterior. Para Arrow nuestro conocimiento es un conjunto de distribuciones de probabilidades
que refleja nuestra visión del mundo. Nuestro conocimiento alberga, pues, en cierta manera, la manera en que
esperamos que se comporte el mundo que tenemos a nuestro alrededor.
Esta definición me hace pensar que el conocimiento es un elemento clave a la hora de adaptarnos a nuestro
entorno. Y cuanto más variable sea ese entorno, más a menudo nos veremos obligados a modificar nuestro
conocimiento, es decir, a aprender nuevas cosas y, como diría Alfons Cornella, a desaprender lo aprendido.
Probablemente por esta razón estamos en estos momentos de grandes cambios, en pleno auge de la llamada Nueva
Economía, tan preocupados por algo tan antiguo como la gestión del conocimiento…
Agustí Canals
Know-org
6
3. "Leaky or sticky?"
Mientras que en algunas ocasiones el conocimiento es extremadamente difícil de compartir y difundir, en otras es
imposible evitar que se extienda rápidamente, aunque intentemos ponerle barreras...
En su libro “The Social Life of Information” (http://www.amazon.com/exec/obidos/ASIN/0875847625/
infonomia) del que ya trató Alfons Cornella en Extra!-Net (http://infonomia.com/extranet/index.asp?idm=1&
idrev=1&num=505), los investigadores del Xerox PARC John Seeley Brown y Paul Duguid observan esta dualidad
que presenta el conocimiento. A veces es algo muy difícil de extraer de donde se encuentra para transmitirlo a otras
partes de la organización; es como una sustancia pegajosa (en inglés, “sticky”). En cambio, en otras ocasiones, a
pesar de todos nuestros esfuerzos para retenerlo, se escapa inevitablemente comportándose como algo escurridizo
(ellos utilizan el término “leaky”) que los competidores aprovechan.
Para intentar entender esta paradoja podemos hacer uso de un modelo ideado por Max Boisot, profesor de
Management Estratégico en ESADE (Barcelona) y Research Fellow en la Wharton School (University of
Pennsylvania) entre otras múltiples ocupaciones. Max presenta en su libro “Knowledge Assets: Securing
Competitive Advantage in the Information Economy” (http://www.amazon.com/exec/obidos/ASIN/
0198290861/infonomia) un marco teórico para el estudio de los flujos de conocimiento en las organizaciones y
fuera de ellas. El modelo es algo complejo y difícil de explicar con brevedad, pero intentaré esbozar sus líneas
generales.
Boisot sostiene que los activos de conocimiento se sitúan en un espacio tridimensional imaginario en función
de tres cualidades que el conocimiento puede poseer en mayor o menor cuantía: la codificación, la abstracción y la
difusión. Dentro de este espacio, llamado “Information Space” o “I-Space”, se produce la creación y la transmisión
del conocimiento. Un conocimiento está codificado cuando es posible describirlo mediante la utilización de algún
código, como por ejemplo el lenguaje humano o la notación matemática. Evidentemente, en el momento en que se
codifica pierde algunas sutilezas que el código es incapaz de reflejar. Nunca la descripción de un paisaje, por buena
que sea, puede sustituir a la experiencia de estar rodeado de él admirándolo físicamente.
La abstracción consiste en desligar el conocimiento de los aspectos relacionados con el entorno, el lugar y el
momento concretos en que se ha creado, de manera que pueda utilizarse en otras situaciones asimilables. Un
conocimiento abstracto es más genérico y tiene, por tanto, más dominio de aplicación. Una fórmula geométrica
como la del área de un triángulo es un ejemplo de conocimiento abstracto, ya que puede ser utilizada para cualquier
triángulo.
La difusión es la transmisión del conocimiento a los diversos miembros de la comunidad a la que se aplica el
modelo. Puede tratarse de una empresa, un sector o incluso un país entero.
Para que el conocimiento pueda ser difundido, dice Boisot, es necesario que alcance un cierto grado de
codificación y abstracción. De lo contrario, es imposible que la persona que lo posee pueda transmitirlo. Cuando el
grado de codificación y abstracción es bajo, puede transmitirse, pero con dificultad y generalmente sólo a través del
contacto directo y continuado. Es el conocimiento de carácter más tácito o personal, que Brown y Duguid tildarían
de “sticky”.
Cuando el conocimiento alcanza altos niveles de codificación y abstracción, como por ejemplo una fórmula
química, es mucho más fácil de difundir en la organización y, por tanto, ésta puede sacar mucho más rendimiento
de él. Sin embargo, esa misma facilidad hace posible que el conocimiento se pueda difundir hacia el exterior de la
organización y, por tanto, se produzca una erosión de la ventaja competitiva que éste proporcionaba. El
conocimiento se ha vuelto “leaky”.
En otro artículo trataremos de qué estrategias pueden adoptar las empresas ante este dilema...
Agustí Canals
Know-org
7
4. La "Library of Congress", la CIA y el "bibliotecario perfecto"
En la interesante novela "Snow Crash" de Neal Stephenson http://www.amazon.com/exec/obidos/ASIN/
0553380958/infonomia, publicada en español por la editorial Gigamesh (http://www.gigamesh.com), se describe
un futuro no muy halagüeño en el cual no hay estado ni leyes y la sociedad está dominada por grandes
corporaciones que se mueven exclusivamente por intereses económicos.
Admito que no parece que todo esto tenga mucha relación con la gestión del conocimiento, pero hay algunos
pasajes de la historia cyberpunk de “Snow Crash” que me han sugerido reflexiones respecto a cual puede ser la
evolución de este campo en el futuro.
Por ejemplo, una de las grandes corporaciones que aparecen en la novela es la llamada CIC, dedicada a la
búsqueda y comercialización de información. La citada organización es el resultado de la fusión entre la Biblioteca
del Congreso de los Estados Unidos… ¡y la CIA! A primera vista, parece algo absurdo, pero refleja una tendencia
que ya estamos observando hoy en día. La gestión de información, necesaria—aunque no suficiente—para una
adecuada gestión del conocimiento, es un campo interdisciplinario en el cual, como decía Alfons al definir la
infonomía, se necesita cada vez más la aportación de distintos campos del saber y de distintas competencias
(http://www.infonomia.com/extranet/index.asp?idm=1&idrev=1&num=521).
Entonces, quizá no sea tan extraño que especialistas en la búsqueda de información (la Inteligencia
Competitiva no está tan lejos del espionaje) se alíen a los expertos en la organización de esa información. Al fin y
al cabo, saber dónde se encuentra el conocimiento y estructurarlo (o estructurar su representación) de manera que
sea posible su utilización en el momento en que se necesite son objetivos que deben complementarse en cualquier
proyecto de gestión del conocimiento.
Una gran parte de la acción de “Snow Crash” se desarrolla fuera del “mundo real”, en un mundo virtual llamado
“Metaverse” donde cada persona real está representada por un agente de software de forma humana llamado
“avatar”. Los avatares interaccionan entre ellos físicamente (aunque, por supuesto, simuladamente) en el Metaverse
bajo el control de sus propietarios. Cuando éstos necesitan encontrar información o comunicarse, pueden enviar
sus avatares al mundo virtual para hacer esas funciones.
Por ejemplo, cuando quiere obtenerse información de la organización CIC, los avatares interactúan con un
agente de software, en forma humana también, que actúa como el “perfecto bibliotecario”. En respuesta a las
preguntas del avatar cliente y basándose en su conocimiento de todo lo que contienen las bases de datos de CIC, el
bibliotecario puede acceder a cualquier información y facilitarla inmediatamente, con la elaboración que haga falta
en cada caso. Sin embargo, no es capaz de hacer valoraciones sobre la información recuperada ni, mucho menos,
entender una ironía. Quizá en el futuro la interacción con los sistemas de gestión del conocimiento sea de esta
manera, y quizá entonces valoraremos más el contacto con los buenos profesionales de la información de carne y
hueso…
Curiosamente, “Snow Crash” se empezó a escribir en 1988, mucho antes de que se inventara lo que años
después conoceríamos como World Wide Web…
Agustí Canals
Know-org
8
5. Invertir en conocimiento para gestionar el conocimiento
En la actualidad se está invirtiendo mucho en sistemas informáticos para la gestión del conocimiento. Sin embargo,
no se está invirtiendo tanto en la formación de quienes deben utilizarlos.
En su muy interesante libro “How the Mind Works” (http://www.amazon.com/exec/obidos/ASIN/
0393318486/infonomia), el especialista en neurociencia cognitiva del MIT Steven Pinker pone el caso de las patas
de los animales como ejemplo de la gran efectividad de la naturaleza en encontrar soluciones a los problemas
biológicos.
Efectivamente, muchas veces citamos la rueda como uno de los descubrimientos más importantes de la historia
de la humanidad. Sin embargo, no nos damos cuenta de que nosotros mismos poseemos un método de locomoción
mucho más perfecto. Mientras que los vehículos con ruedas son adecuados sólo para circular por terrenos
consistentes y más o menos planos, los “vehículos” con patas, los animales, tienen acceso a la mayor parte de la tierra
que no está sumergida. Las ruedas requieren un soporte continuo, mientras que las patas tienen bastante con una
serie de puntos de apoyo separados, como es el caso de una sencilla escalera. Las patas permiten una mucho mayor
flexibilidad para adaptarse al terreno y a la situación.
Sin embargo, como dice Pinker, las patas vienen con un alto precio: el software o, mejor dicho, “wetware” para
controlarlas. Cuando utilizamos nuestras piernas para desplazarnos, estamos continuamente cambiando nuestro
punto de apoyo y, para ello, es necesario que desplacemos cada vez nuestro peso hacia la pierna que no se está
moviendo. Además, debemos mantener siempre el centro de gravedad equilibrado y el tronco estabilizado. Para
poder realizar todos los cálculos necesarios para gobernar esa maquinaria se necesita una potente herramienta con
la que el mecanismo de la evolución nos ha dotado: el cerebro.
Para conseguir esa maravilla, sin embargo, la naturaleza ha tenido que hacer una colosal inversión en tiempo
(miles de millones de años) y en ensayos (miles de millones de individuos con mutaciones que no han superado la
selección natural). Y ha invertido mucho más en el desarrollo del cerebro que en el de las piernas. Este ejemplo me
ha hecho pensar que para obtener buenos resultados hay que invertir adecuadamente a distintos niveles.
Está claro que actualmente se está invirtiendo mucho en soluciones informáticas que presuntamente resolverán
todos los problemas de la gestión del conocimiento. Pero mi duda es si se está invirtiendo al mismo nivel en el
“wetware” que ha de sacar partido de esos sistemas. Es importantísimo que los profesionales que deben hacer
realidad un sistema de gestión del conocimiento tengan una formación adecuada, no sólo desde el punto de vista
puramente tecnológico, sino también en otras materias como búsqueda y recuperación de información, usabilidad,
arquitectura de la información, inteligencia competitiva, gestión documental, comunidades virtuales, recursos de
información, etc.
La adecuada preparación de los profesionales será una de las claves para que el proyecto funcione. Y puede
tener también un efecto en las características de los futuros sistemas, puesto que los fabricantes desarrollan sus
productos respondiendo a las exigencias de sus clientes. Pero eso sería materia para otro artículo…
Agustí Canals
Know-org
9
7. Ba
Ya en la primera mitad del siglo XX los especialistas en pragmática lingüística comprendieron la gran importancia
que tiene el contexto en la eficacia de todo proceso comunicativo. Parece ser que no sólo en la transmisión de
conocimiento, sino también en la creación de éste, el entorno, el contexto, el lugar,...lo que los japoneses llaman
"ba", juega un papel fundamental.
En su artículo del número especial de la California Management Review dedicado al conocimiento y la
empresa (http://www.haas.berkeley.edu/News/cmr/contentsKI_.html) titulado “The concept of “Ba”: Building a
Foundation for Knowledge Creation”, Ikukiro Nonaka y Noboru Konno toman el concepto de “ba” propuesto por
el filósofo japonés Kitaro Nishida para designar “un espacio compartido para relaciones emergentes”. Ese espacio
puede ser físico (una oficina, un taller), virtual (una intranet, una videoconferencia), mental (ideas, experiencias,
valores compartidos) o bien una combinación de ellos.
Tal como expone en su libro “The Knowledge-Creating Company” (http://www.amazon.com/exec/obidos/
ASIN/0195092694/infonomia), para Nonaka la creación de conocimiento es un proceso sin fin, en forma de espiral,
formado por diferentes tipos de interacciones entre conocimiento tácito y explícito. El “ba” constituye el entorno
necesario para que se produzcan esas interacciones, y debe tener características diferentes según el tipo de
interacción.
Hace poco tuve la oportunidad de asistir a la lección inaugural del programa de doctorado sobre la Sociedad
de la Información y el Conocimiento creado recientemente en mi universidad (http://www.uoc.es/in3/cas/int_
doctorate.htm) a cargo de Manuel Castells. El doctor Castells, profesor de sociología de la Universidad de California
en Berkeley y autor de la aclamada trilogía sobre la Era de la Información iniciada con “The Rise of the Network
Society” (http://www.amazon.com/exec/obidos/ASIN/0631221409/infonomia), trató varios e interesantes aspectos
del tema “Internet y la sociedad red”.
Una de las afirmaciones que más me llamó la atención fue que, al contrario de lo que se había predicho, el
desarrollo de las redes de comunicación no había provocado un éxodo de los habitantes de los grandes núcleos de
población hacia el campo en busca de una pretendida mayor calidad de vida, sino que se observaba una mayor
tendencia a la concentración de la población en grandes núcleos urbanos. Para Castells, eso es debido a que los
trabajadores de la nueva economía, cuya función principal es crear conocimiento, necesitan materia prima para esa
creación. La materia prima es conocimiento proveniente de otras personas, y para entrar en contacto con esas
personas hay que estar donde ellas viven: en las ciudades.
En los términos de Nonaka, hay una parte del “ba” necesario para la creación de conocimiento que es físico y
que, al menos de momento, no puede ser sustituido por el “ba” virtual. Y esto es algo que deberemos tener muy en
cuenta cuando hablemos de organizaciones virtuales o de teletrabajo.
Por cierto, el esperado “boom” del teletrabajo es, según Castells, otra de las profecías que los datos empíricos
obtenidos hasta ahora parecen desmentir…
Agustí Canals
Know-org
10
7. Utilidad y usabilidad de los sistemas
Una de las enormes ventajas que nos proporcionan las tecnologías de la información es que se facilita
extraordinariamente la realización de algunas tareas. Lo que antes sólo podían hacer usuarios expertos está ahora
al alcance de muchas personas. Esa tendencia, que en general es positiva, puede acarrear también algunos
inconvenientes.
Según la consultora IDC, el mercado global del software para la gestión del conocimiento va a experimentar
un aumento espectacular en los próximos años. De 1.400 millones de dólares en 1999 va a pasar a 5.400 millones
de dólares en 2004 (http://www.vnunet.com/News/1112178). Se define esa categoría como “el software utilizado
para encontrar, seleccionar, organizar y presentar información para mejorar la comprensión de áreas específicas de
interés por parte de los usuarios”.
IDC distingue entre dos segmentos de mercado: el de acceso, que incluye los portales de empresa y el software
de formación interna de las empresas, y el de infraestructuras, que consiste en las aplicaciones de base de gestión
del conocimiento. Para el primer segmento se espera un crecimiento del 46% anual (de 500 millones de dólares en
1999 a 3.300 en 2004), mientras que para el segundo se prevé un crecimiento anual del 31%.
A la vista de estos espectaculares crecimientos, es pertinente reflexionar un poco sobre qué dirección pueden
tomar en un futuro las soluciones tecnológicas y qué papel pueden jugar en esa evolución los profesionales y las
organizaciones que las van a utilizar.
En un artículo anterior de este documento señalábamos la necesidad de invertir en la formación de las personas
además de hacerlo en sistemas. Y ya allí apuntábamos que el nivel de formación de los usuarios puede tener efectos
a largo plazo en la evolución tecnológica de los sistemas de gestión del conocimiento.
Si los usuarios no poseen una formación adecuada, tenderán a utilizar sólo las funcionalidades básicas de los
sistemas, sin aprovechar las posibilidades más sofisticadas que éstos puedan ofrecer y sin exigir a los fabricantes que
éstas mejoren. Como consecuencia, los sistemas evolucionarán hacia soluciones muy fáciles de usar pero que no
aprovecharán todas las capacidades que la tecnología podría proporcionar.
Este fenómeno, conocido como “dumbing down”, ya se puede observar en algunas funcionalidades como la
interrogación de motores de búsqueda. En Internet es muy bueno que cualquiera pueda utilizar un buscador, pero
también lo es que los profesionales de la búsqueda y recuperación de información puedan utilizar sus
conocimientos para, mediante el uso de lenguajes de interrogación especializados, encontrar resultados mucho más
relevantes y eliminar el ruido.
Los nuevos sistemas incorporarán ese tipo de herramientas sólo si los profesionales son capaces de utilizarlas,
y para ello tienen que estar adecuadamente formados. Al mismo tiempo que velamos por la usabilidad, no debemos
descuidar la utilidad de los sistemas actuales y de los futuros (http://www.infonomia.com/extranet/index.asp?
idm=1&idrev=1&num=451).
¿Qué opináis al respecto? ¿Creéis que es posible optimizar al mismo tiempo utilidad y usabilidad?
Agustí Canals
Know-org
11
8. Niveles del conocimiento
A menudo oímos a hablar de conocimiento organizacional o de organizaciones que aprenden. Sin embargo,
también nos repiten con frecuencia, a veces incluso los mismos, que el conocimiento reside en las personas. ¿Dónde
está, pues, el conocimiento? ¿Sólo en las personas o también en las organizaciones?
A mi modo de ver, la respuesta a las preguntas anteriores es, como cabía esperar, “Depende”. ¿Y de qué depende?
Pues del nivel al cual estemos analizando el problema en cuestión.
En su muy interesante libro “The Quark and the Jaguar” (http://www.amazon.com/exec/obidos/ASIN/
0716727250/infonomia) , el premio Nobel de física Murray Gell-Mann propone una original manera de pensar en
la ciencia. Cada una de las distintas ciencias se ocupa de la realidad a un nivel diferente. Así, pues, mientras la física
de partículas elementales se ocupa del nivel más fundamental, la química trabaja a un nivel superior (el de los
átomos y las moléculas), la biología se ocupa de entidades aún más complejas (las células), y así sucesivamente hasta
llegar a la psicología o la sociología. Cada una de las ciencias ocuparía un peldaño de una escalera imaginaria.
Podría parecer que, en vista de esto, cada ciencia se podría reducir a la inmediata inferior de manera que sólo
conociendo la física bastaría para deducir cualquier ley de ámbito superior. Pero normalmente no es así. Para GellMann, cada uno de los niveles de la escalera opera sobre sistemas que están sometidos a unas condiciones
determinadas. La ciencia correspondiente tiene en cuenta esos condicionantes y ello le permite atajar la
complejidad y obtener leyes y hacer predicciones. Las ciencias más fundamentales, si no pueden incorporar dichas
condiciones, se ven incapaces de dominar la complejidad. Así, la química utiliza el concepto de enlace químico para
encontrar sus leyes y hacer sus predicciones. Esas mismas leyes podrían deducirse de las ecuaciones de la física si
fuéramos capaces de incorporarles el hecho que las reacciones químicas se producen sólo en unas determinadas
condiciones, más o menos similares a las de la superficie de la tierra. Hasta ahora, sólo es posible deducir las leyes
químicas a partir de las ecuaciones de la física en los casos más sencillos y utilizando los ordenadores más potentes.
Cada ciencia es necesaria a su nivel correspondiente.
Podemos aprovechar estas ideas para abordar nuestro problema del conocimiento. Definamos el conocimiento
de un agente (no especificamos si una persona, una máquina, un programa de ordenador o una organización),
siguiendo la línea de Kenneth Arrow comentada en el artículo número 2 de este documento, como un conjunto de
distribuciones de probabilidades que refleja su visión del mundo y que le permite orientar sus acciones.
Entonces, podemos considerar el conocimiento como algo que puede ser estudiado a dos niveles. Si nuestro
objeto de estudio es la persona, nos situamos a un nivel inferior, más fundamental. Entonces, el agente que
consideramos es el individuo y lo que estudiamos es el conocimiento individual que le permite orientar sus acciones
ante su entorno, que es tanto el externo a la organización como el interno, incluyendo a los demás integrantes de
ésta. Si, por el contrario, pensamos en la organización como agente, nos situamos a un nivel superior, más complejo,
en el cual el conocimiento que consideramos es el de la organización como un todo, el que orienta las acciones de
ésta. El estudio de este conocimiento aprovechará los condicionantes presentes en las organizaciones.
Así, pues, estamos hablando de dos conocimientos diferentes, cada uno a su nivel. Hablaremos de uno o de otro
según nuestro objeto de estudio sea el individuo dentro de la organización o la organización misma.
Quizás a algunos, como a mí, esta respuesta les deje un poco insatisfechos... Volveremos sobre el tema en los
próximos Know-org.
Agustí Canals
Know-org
12
9. ¿Conocimiento en el fútbol?
Vimos en el artículo anterior que cuando hablamos de conocimiento de las personas y cuando lo hacemos de
conocimiento organizacional no nos estamos refiriendo a lo mismo. Sencillamente estamos considerando agentes
diferentes y nuestra atención se pone en niveles distintos. Sin embargo, sería interesante ver si es posible entender
un poco más cómo se relacionan el conocimiento de la organización con el de sus integrantes.
Una de las ideas interesantes de la visión de Gell-Mann que presentábamos sobre las ciencias (cada una de las
distintas ciencias ocupando un nivel en una escalera) es que es posible construir “puentes” entre los niveles a medida
que las ciencias avanzan. Por ejemplo, como apuntábamos, la física puede deducir algunas leyes químicas a partir
de sus propias leyes, más fundamentales. O la bioquímica puede explicar resultados de la neurología, y ésta a su vez
conocimientos hasta ahora desarrollados, a otro nivel, por la psicología.
Se puede intentar algo similar y ver si es posible explicar el conocimiento de la organización a partir del
conocimiento de las personas. Podemos considerar que el conocimiento de la organización (es decir, su visión del
entorno que le orienta a la hora de actuar) reside a nivel interno en:
1) Las personas: Cada persona posee su conocimiento, y lo utiliza para realizar sus acciones. Hay que tener en
cuenta, sin embargo, que los objetivos perseguidos por los individuos no son necesariamente los de la organización.
Si queremos que las acciones de los individuos produzcan acciones que estén de acuerdo con los objetivos de la
organización, hay que conseguir alinear los objetivos personales con los organizativos mediante el “contrato”
adecuado.
2) Las tecnologías de la información: En la mayoría de los sistemas tecnológicos no podemos decir que haya
conocimiento propiamente dicho según nuestra definición. Se trata de representaciones del conocimiento en forma
de datos que están a la disposición de los agentes (normalmente las personas). Una posible excepción son los
sistemas (ya sean los llamados sistemas expertos o aparatos de tipo más simple como un termostato) que actúan
según las condiciones del entorno. Entonces si podríamos hablar de un cierto grado de conocimiento.
3) Los procesos: En los procesos establecidos se ha “empaquetado” un conocimiento, generado inicialmente
por personas, para permitir una acción automática ante la situación del entorno. De esta manera, puede ser que
nadie en la organización posea ese conocimiento (por ejemplo, el necesario para construir una máquina
complicada) pero la organización lo utiliza cuando emplea la máquina.
Pero, ¿es el conocimiento de la organización explicable sólo como una suma de estos tres elementos? A mi
modo de ver, ésta es una visión demasiado reduccionista. La actuación de las organizaciones sobre el exterior no es
la misma que correspondería a la suma de las actuaciones sobre el exterior de la organización de los tres elementos
anteriores. Hay que añadir algo más, una condición que está presente en las organizaciones humanas: las personas
también poseen conocimiento sobre las demás personas, sistemas y procesos del interior de la organización. Y
cuanto mejor es ese conocimiento, mejor respuesta puede dar la organización y, por tanto, éste es un ingrediente
fundamental del conocimiento organizacional.
Pensemos en un ejemplo de organización en la cual la tecnología y los procesos (al menos los formalizados)
tienen poca importancia y todo se basa en las personas: un equipo de fútbol. Cualquier aficionado sabe que no se
puede hacer un buen equipo simplemente juntando once jugadores individuales, aunque sean los mejores. Hay que
conseguir que esos jugadores se compenetren y que lleguen a “jugar de memoria”. Ello significa que cada jugador,
además del conocimiento (generalmente tácito) sobre cómo jugar contra el adversario, posee también un
conocimiento (mayormente tácito también) sobre la manera de jugar, las habilidades, las virtudes y los defectos de
sus propios compañeros, de manera que a la hora de actuar los tiene en cuenta y, como resultado, el juego del
equipo se optimiza. Curiosamente, incluso los entrenadores de fútbol son, en el fondo, ¡gestores del conocimiento!
Quién lo diría a la vista de algunos personajes…
Agustí Canals
Know-org
13
10. Congreso Anual de la ASIS (&T)
A los que nos dedicamos a la gestión de la información y del conocimiento es muy enriquecedor comprobar su
evolución en donde están más desarrolladas...
El pasado mes de noviembre tuve la oportunidad de participar en la Reunión Anual de la American Society for
Information Science (ASIS) (http://www.asis.org) celebrada en Chicago. El evento me pareció especialmente
interesante en varios aspectos, algunos de los cuales no me resisto a comentar aquí.
1) Actitud abierta e interdisciplinariedad: La “Information Science” anglosajona engloba todo el conocimiento
relativo a la información—probablemente es lo que más se acerca a la Infonomia
(http://www.infonomia.com/infonomia)—y, por lo tanto, la ASIS acoge a todos los profesionales dedicados a
alguna de las múltiples facetas de esta ciencia sin distinción de procedencias. Una muestra de dicha actitud abierta
es que, observando que el tratamiento de la información es hoy en día indisociable de las tecnologías de la
información, la asociación ha pasado a llamarse ASIS&T (American Society for Information Science &
Technology).
2) Presencia de la gestión del conocimiento: Entre los profesionales de la información en Estados Unidos se ve
con gran interés el auge de la gestión del conocimiento en las organizaciones. El título de la conferencia era
“Knowledge Innovations” y ello se reflejaba en diversas conferencias, presentaciones y mesas redondas sobre la
teoría, la aplicación práctica y la docencia de la gestión del conocimiento.
3) Actitud proactiva: Ese interés por la gestión del conocimiento se traduce en una actitud proactiva. El lema
de la conferencia era “Celebrating Our Heritage, Designing Our Future” (“Conmemorando nuestro patrimonio,
diseñando nuestro futuro”). La primera parte hace referencia a la decisiva aportación que deben hacer a la gestión
del conocimiento las tradicionales disciplinas de la información como la biblioteconomía, la archivística, la
documentación, etc. Sin embargo, la segunda señala que para poder jugar ese papel, los profesionales de la
información deben ser capaces de diseñar su propio futuro. Y ello conlleva el esfuerzo de aprender sobre otros
ámbitos (tecnologías, gestión de organizaciones, economía, etc.) y el de trabajar integrándose en equipos
interdisciplinarios.
4) La información digital arrasa: La práctica totalidad de las comunicaciones dedicadas a sistemas de búsqueda
y recuperación de información, documentación, biblioteconomía, etc. se centraban en la información en formato
digital, y más concretamente en información accesible a través del WWW. La investigación y la innovación en estos
campos se ha concentrado en las posibilidades que ofrece el uso de las tecnologías de la información y la
comunicación.
5) Visualización de información: Aunque es algo que los asiduos a Infonomia.com ya saben a través de los
artículos de J.C. Dürsteler (http://www.infovis.net), la presencia de varias comunicaciones sobre temas relacionados
con la visualización de información en la conferencia anual de la ASIS confirma que éste va a ser pronto uno de los
campos “calientes” en el ámbito de la gestión de la información.
6) Innovación en la docencia: Se observó entre los profesionales de la información y, especialmente, entre los
profesores de las universidades, una preocupación por los contenidos y las nuevas metodologías docentes. Por una
parte, se trata de ofrecer programas educativos que respondan a las necesidades del futuro profesional de la
información. Algunas instituciones están incluso ofreciendo ya programas específicos de gestión del conocimiento.
Por otra parte, varias universidades están desarrollando proyectos de educación a distancia a través de Internet.
Pero también hubo diversión: el congreso me dio la oportunidad de vivir de cerca el espectáculo del recuento
de las Elecciones 2000 en Estados Unidos (vean el attículo 9 de la revista Red Pública al cargo de Roc Fages y el
artículo 12 de la revista Infovis al cargo de J. C. Dursteler). Ciertamente, un ejemplo paradigmático de mala gestión
de información...
Agustí Canals
Know-org
14
11. El contexto social: comunidades de práctica
Es necesario entender el tejido social para saber cómo la tecnología puede ayudarnos...
Ésta es la tesis que formulaba John Seeley Brown (http://www.parc.xerox.com/ops/members/brown/jsb.html)
en una conferencia pronunciada durante la reunión anual de la ASIS que ya comentamos en el Know-org anterior.
Para JSB, debemos huir del determinismo tecnológico que sólo considera la información (o quizás deberíamos
decir los datos) que la tecnología puede proporcionar al individuo, sin tener en cuenta que lo que va a dar sentido
a los datos y va a permitir elaborar conocimiento va a ser el contexto social en el que se encuentre la persona.
Así, pues, si queremos potenciar los procesos de creación y transmisión de conocimiento, no debemos
conformarnos con las soluciones puramente tecnológicas o las actuaciones que se basen en considerar a los
individuos aisladamente –la perspectiva, dice Brown, de Bill Gates en su libro “The Road Ahead”
(http://www.amazon.com/exec/ obidos/ASIN/0140260404/infonomia). Según Brown, debemos tener en cuenta que
la comprensión se construye socialmente. Será preciso, pues, conocer los mecanismos sociales que intervienen.
Uno de los conceptos más útiles para esa comprensión es el de las llamadas “comunidades de práctica”. La idea
de comunidad de práctica se expone en el excelente libro de Etienne Wenger titulado “Communities of Practice:
Learning, Meaning and Identity” (http://www.amazon.com/exec/obidos/ASIN/0521663636/infonomia). Es una
obra muy rica en profundidad y es difícil resumir su contenido en poco espacio. La idea principal es que el
aprendizaje (es decir, la creación y la transmisión de conocimiento) se produce a menudo en el seno de grupos
sociales denominados comunidades de práctica. Esas comunidades se configuran en torno a una tarea determinada
que los integrantes del grupo deben llevar a cabo. Dentro de la comunidad, la tarea y el aprendizaje se realizan
simultáneamente, de manera que no se puede separar uno de otro.
El ejemplo que analiza el autor es el del conjunto de trabajadores de una compañía de seguros que se encargan
de procesar las peticiones de los asegurados y decidir si procede o no el pago de las cantidades reclamadas. Incluso
en una tarea que parece tan claramente reglamentada como ésa, se hace evidente que sería imposible su realización
sin los pequeños trucos que los miembros de la comunidad van ideando y transmitiendo, la ayuda que los veteranos
prestan a los que empiezan o el ambiente agradable que hace más llevadera la aburrida tarea. En las comunidades,
la práctica no es tan solo algo funcional, es un proceso por el cual experimentamos el mundo y éste adquiere
sentido.
Para Wenger, una comunidad de práctica se constituye en torno a tres dimensiones:
1) Un compromiso mutuo de los integrantes para la realización de la práctica concreta. Ese compromiso define
la pertenencia a la comunidad. 2) Una tarea conjunta, que se negocia entre los miembros de la comunidad. 3) Un
repertorio compartido de rutinas, palabras, herramientas, maneras de hacer las cosas, historias, gestos, símbolos,
acciones o conceptos que la comunidad ha producido o adoptado y que se han convertido en parte de su práctica.
Podemos encontrar comunidades de práctica en muchos ámbitos, dentro y fuera del trabajo, y cada uno de
nosotros puede pertenecer a varias comunidades (por ejemplo, el departamento de la empresa donde trabajamos,
un equipo de fútbol, una comunidad virtual sobre videojuegos o una sociedad literaria). Además, las distintas
comunidades pueden interaccionar influyéndose mútuamente e incluso agruparse constituyendo lo que Wenger
llama constelaciones de comunidades.
Dentro de las organizaciones se forman espontáneamente comunidades de práctica y muchas veces una
organización constituye una constelación de comunidades. Es en el seno de las comunidades donde se llevan a cabo
la mayor parte de los procesos de creación y transmisión de conocimiento. Por tanto, será necesario tener en cuenta
este contexto social a la hora de diseñar los sistemas de gestión del conocimiento.
Mientras estaba escuchando la conferencia de John Seeley Brown se me hizo evidente la importancia del
Agustí Canals
Know-org
15
contexto social. Aunque ya había leído su libro, “The Social Life of Information”
(http://www.amazon.com/exec/obidos/ASIN/0875847625/infonomia), comentado ya en Extra!-Net
(http://infonomia.com/extranet/index.asp?idm= 1&idrev=1&num=505), e incluso había visto su página web y
alguna muestra de sus presentaciones, estoy convencido de que el contacto directo y el contexto social adecuado
hicieron que la transmisión de sus ideas fuera mucho más efectiva. Como dice Brown, quizás además de “mirar
hacia delante” (“look ahead”) tendremos que pensar un poco más en “mirar alrededor” (“look around”).
Agustí Canals
Know-org
16
12. El siglo de la bioinfonomía
Si el siglo XX fue el de la física, el siglo XXI parece que va a ser el de la confluencia de la biología con las tecnologías
de la información.
El Proyecto Genoma Humano ha demostrado ya la gran importancia de las tecnologías de la información en
la generación del conocimiento científico sobre la vida. Pero una vez secuenciado el genoma, dicen los expertos, el
verdadero reto es el estudio de las proteínas que se construyen a partir de esos genes.
La determinación de la estructura de una proteína es vital para conocer sus funciones y propiedades biológicas.
Una vez es conocida la secuencia de aminoácidos que forman una proteína, la configuración espacial que toma esa
cadena puede estudiarse por dos vías diferentes, no exentas de dificultades. La vía teórica consiste en el cálculo de
la ecuación de Schrödinger (ecuación fundamental de la mecánica cuántica) que representa la molécula en
cuestión. Hasta el momento, para moléculas grandes como las proteínas, la solución directa de la ecuación no es
posible debido a la gran complejidad de cálculo que supone. Debemos conformarnos con un resultado aproximado
que aprovecha la relativa similitud de la molécula en cuestión con otras ya conocidas. La vía experimental consiste
en la utilización de tecnologías como la resonancia magnética nuclear (RMN) o la cristalografía y difracción de
rayos X. La primera sólo es viable para las proteínas más pequeñas y la segunda requiere que la proteína sea
cristalizada.
Las tecnologías de la información juegan un papel decisivo en estas metodologías. Basta con constatar que el
heredero del célebre superordenador Deep Blue de IBM, que se prevé va a ser 500 veces más potente que cualquier
ordenador actual, va a dedicarse precisamente al modelado teórico de los procesos de plegamiento de las proteínas
que dan lugar a su estructura y va a llamarse Blue Gene (http://www.no.ibm.com/nyheter/des99/bluegene.html).
Sin embargo, como señala Roderic Guigó en su muy interesante artículo titulado “Bioinformática ¿una ciencia sin
científicos?” en el número 18 de la revista Quark (http://www.imim.es/quark/num-18/Default.htm) dedicado a
Internet y el Genoma Humano (debo agradecer a Lluís Codina que lo hiciera llegar a mis manos), lo más difícil va
a ser el tratamiento de la ingente cantidad de información que se genera. Para poder destilar verdadero
conocimiento va a ser imprescindible una especial incidencia en la gestión de información.
He detectado ya esa tendencia últimamente en varios artículos y presentaciones. Por ejemplo, en un foro sobre
gestión del conocimiento, Igor Jurisica, investigador de la Universidad de Toronto, presentaba una metodología
para detectar en qué condiciones las proteínas cristalizan. Como hemos dicho, conseguir la cristalización es un paso
imprescindible para determinar su estructura a través de espectroscopia de rayos X. El problema es que cada
proteína cristaliza en unas determinadas condiciones de temperatura, pH, concentración, etc. Un sistema de
decisión diseñado por un equipo interdisciplinario (formado por bioquímicos, informáticos y especialistas en
información) permite, después de realizar automáticamente decenas de miles de pruebas combinando las posibles
condiciones, identificar los patrones de crecimiento de cristales mediante técnicas de visión computerizada que
comparan cada prueba con una base de conocimiento previa.
En un artículo del interesante suplemento The Economist Technology Quarterly de diciembre de 2000 titulado
“After the Genome” (http://www.economist.com/displayStory.cfm?Story_ID=442946) se hace un repaso de las más
avanzadas tecnologías en el estudio de las proteínas. En la mayoría de ellas la gestión de información juega un papel
cada vez más determinante. Finalmente, en otro reciente artículo de The Economist (“Utterly predictable”, The
Economist, 23/12/2000), se presenta una nueva manera alternativa de determinar la estructura de las proteínas, que
consiste en la utilización de redes neuronales que se sirven de la información sobre la estructura que adoptan
proteínas conocidas para predecir cuál va a ser la de proteínas desconocidas. La red neuronal se “entrena” con las
secuencias y estructuras de las proteínas conocidas. Posteriormente, a partir de cualquier secuencia puede proponer
una estructura espacial para la proteína en estudio. Pura gestión de información. ¿Habrá llegado la hora de los
bioinfonomistas? Sea o no el de la bioinfonomía, mis mejores deseos para este siglo que empieza.
Nota: Debo agradecer a mi hermano Albert Canals sus detalladas explicaciones sobre el fascinante mundo de
la bioquímica de proteínas.
Agustí Canals
Know-org
17
13. e-science
Internet está transformando también un sistema que parecía tan sólidamente establecido como el de la
comunicación entre los científicos.
Probablemente, uno de los sistemas más antiguos para gestionar el conocimiento es el que utiliza la comunidad
científica desde hace cientos de años. Además de difundir los resultados obtenidos por los científicos, el sistema ha
servido para asegurar, en la medida de lo posible, el rigor y la validez de lo publicado.
El procedimiento habitual solía consistir en que, una vez completada una investigación, los resultados se
sometían para su publicación a alguna de las diferentes revistas especializadas en forma de artículos. Para ser
publicados, dichos artículos debían superar la aprobación de uno o varios evaluadores (“referees” o “peers”), que
eran científicos de reconocido prestigio. El procedimiento era lento y bastante caro, pero aseguraba un elevado nivel
de calidad. Una vez un artículo había superado el filtro de la revisión, su contenido podía ser considerado como
válido para engrosar el conocimiento científico.
Sin embargo, en algunas disciplinas, como por ejemplo la física de partículas elementales, los desarrollos se
sucedían con tanta rapidez que la comunidad científica no podía esperar a que los artículos superaran los lentos
procedimientos habituales. Los científicos optaron entonces por enviar los manuscritos, al mismo tiempo que los
sometían a las revistas correspondientes, a sus colegas de otras instituciones en forma de lo que se llamaron
“preprints”. Aún así, un resultado no se consideraba definitivo hasta que había sido publicado por una revista de
prestigio.
Internet ha cambiado todo ese proceso radicalmente.
Ya a finales de los años ochenta recuerdo que dentro de la comunidad de investigadores en física teórica (entre
los cuales me encontraba entonces) empezaba a utilizarse de manera regular el correo electrónico para comunicar
resultados científicos, realizar investigaciones conjuntas e incluso mandar algunos “preprints” en formato
electrónico en lugar del tradicional correo.
Pero con el World Wide Web el efecto ha sido mucho más profundo. Los “preprints” se envían en formato
electrónico a una serie de servidores de manera que instantáneamente toda la comunidad científica puede acceder
a ellos. Este sistema ha provocado cambios muy importantes no sólo en la manera de comunicar los resultados
científicos, sino también en la manera de trabajar de los investigadores. Aún existen las revistas impresas, y son las
que finalmente sancionan los resultados, pero la ciencia del día a día se hace en el medio electrónico.
Me contaba un amigo cómo había cambiado su tarea de investigador. Por ejemplo, con sólo hacer una simple
búsqueda le era posible encontrar todo lo que se estaba haciendo sobre un determinado tema en todo el mundo.
Pero eso podía hacerlo cualquiera. Por tanto, se producía una aceleración del ritmo de obtención de resultados y un
aumento de la competencia. Como consecuencia, se generaba una mayor presión para publicar resultados antes de
que alguien más lo hiciera, con el riesgo de no hacer las debidas comprobaciones o bien publicar resultados
intrascendentes. Incluso se daba el caso de documentos que, una vez enviados al servidor correspondiente, al
comprobar el mismo autor (quizás por las indicaciones de otro científico) que contenían un error eran sustituidos
por una nueva versión, de manera que el mismo documento ya no era algo fijo sino que evolucionaba con el
tiempo.
Pensé en ese momento que sería interesante que alguien estudiara ese fenómeno que se estaba produciendo en
algunas disciplinas científicas y que probablemente se extendería a muchas más, y posiblemente también a otros
ámbitos. Por eso me alegró, al recibir el número del pasado diciembre del Journal of the American Society for
Information Science (http://www.asis.org/Publications/JASIS/jasis.html), ver que contenía un especial
precisamente sobre ese tema. En él pueden encontrarse varios interesantes artículos
(http://www.asis.org/Publications/JASIS/ vol51n14.html) sobre los cambios en el sistema de comunicación
científica y los efectos que éstos comportan. Cabe destacar entre ellos una descripción del nuevo paradigma de
Agustí Canals
Know-org
18
comunicación científica que está apareciendo, a cargo de Julie M. Hurd, de la University of Illinois en Chicago
(http://www.uic.edu/homeindex/) y una aportación de Rob Kling y Geoffrey McKim del Center for Social
Informatics del SLIS de la Indiana University (http://www.slis.indiana.edu/CSI/), del que ya habló Alfons Cornella
en Extra!-Net (http://www.infonomia.com/ extranet/index.asp?idm=1&idrev=1&num=505). En este artículo los
autores señalan las diferencias en la adopción de las nuevas tecnologías en la comunicación científica entre las
diferentes comunidades científicas. Nuevamente se demuestra la importancia de los factores sociales en la creación
y transmisión de conocimiento en las comunidades de práctica, tema que ya tratamos en el número 11 de Knoworg .
Es indudable que todos estos sistemas pueden contribuir a la mejora de la investigación científica en ciertos
campos. Sin embargo, hay aún algunos aspectos a resolver antes de que puedan desaparecer las revistas
tradicionales. Por ejemplo, cómo se asegura el rigor o la ausencia de fraudes científicos, o bien de dónde va a salir
el dinero para sufragar el sistema de “referees” si desaparecen las subscripciones de las bibliotecas a las revistas
tradicionales. Hay algunas posibles respuestas (ver el artículo “Will journal publishers perish?”, The Economist,
13/05/2000) pero parece que por algún tiempo aún convivirán los medios electrónicos con los tradicionales...
Agustí Canals
Know-org
19
14. Ideas originales en GC
Hay ideas sobre la gestión del conocimiento que, por repetirse, parecen indiscutibles. A veces es necesario revisar
lo que damos por sentado.
Veamos un par de ejemplos.
En la gran cantidad de literatura que genera la gestión del conocimiento a menudo aparece la idea siguiente: el
conocimiento está en las personas. Hasta cierto punto, podemos aceptar este enunciado (ya hablamos sobre este
tema los números 8 y 9 de Know-org). Sin embargo, ello no significa que todo conocimiento sea individual. Los
estudios sobre comunidades de práctica (número 11 de Know-org) o sobre “core competences” demuestran que
existe un tipo de conocimiento que no pertenece exclusivamente a un individuo sino a todo un grupo social.
Podríamos diferenciar, entonces, entre conocimiento individual y conocimiento grupal.
Uno de los libros más citados en gestión del conocimiento es “The Knowledge-Creating Company”
(http://www.amazon.com/exec/obidos/ASIN/0195092694/infonomia), de Ikujiro Nonaka y Hirotaka Takeuchi. En
esta obra se plantea un mecanismo de creación de conocimiento según el cual ésta se produce a través de sucesivas
transformaciones entre conocimiento tácito y conocimiento explícito. Si el conocimiento tácito puede
transformarse en explícito y viceversa, podemos pensar que existe un sólo conocimiento que puede presentarse en
las dos formas. Sin embargo, eso no parece tan claro. Cuando aprendemos a ir en bicicleta, por ejemplo, aunque nos
hayan transmitido el conocimiento explícito sobre cómo hacerlo, debemos construir nuestro propio conocimiento
tácito hasta que logramos montar con soltura. Así, algunos autores proponen que el tácito y el explícito son dos
tipos independientes de conocimiento y que no puede transformase uno en otro.
Basándose en estas dos ideas, Scott Cook y John Seeley Brown presentan un modelo alternativo de generación
de conocimiento. En su artículo “Bridging Epistemologies: The Generative Dance Between Organizational
Knowledge and Organizational Knowing”, publicado en la revista Organization Science (Julio-Agosto 1999),
utilizan la separación entre conocimiento tácito y explícito y entre conocimiento individual y conocimiento grupal
para definir cuatro formas de conocimiento que corresponden a las combinaciones de esas categorías. Existiría un
conocimiento individual explícito, que ellos genéricamente llaman “conceptos”; un conocimiento grupal explícito,
las “historias”; otro conocimiento individual tácito, las “habilidades” y un conocimiento grupal tácito, que los
autores designan con el término “géneros”.
En este modelo las cuatro formas de conocimiento son totalmente independientes, de manera que no se puede
transformar una en otra de manera directa. La cuestión es entonces cómo se pueden combinar diferentes tipos de
conocimiento y construir unos a partir de los demás. La solución que proponen los autores es la introducción de
un concepto complementario al de conocimiento (“knowledge”) que ellos llaman “conocer” (“knowing”). La
diferencia consiste en que, mientras que el conocimiento es algo que se posee, algo estático, el conocer es algo que
se produce en el momento de la acción, algo dinámico. Es ese conocer el que permite, a través de la acción, la
utilización de las diversas formas de conocimiento para realizar las actividades concretas y, al mismo tiempo,
generar nuevo conocimiento.
Se produce una complementariedad entre lo que los autores llaman la epistemología de la posesión, la del
conocimiento, y la epistemología de la práctica, la del conocer. La conjunción de los dos procesos permite el
desarrollo de procesos dinámicos en los cuales a través de la acción se contrasta el conocimiento con el contexto en
el cual debe aplicarse. Gracias a la suma de conocer y conocimiento podemos entender la relación entre lo que
conocemos y lo que hacemos.
Es un modelo algo complejo y abstracto, pero interesante en la medida en que cuestiona algunas de las ideas
que a veces damos por supuestas.
Agustí Canals
Know-org
20
15. Testimonios del pasado
La tecnología es un elemento extremadamente útil para el almacenamiento de información, pero a veces puede ser
un inconveniente.
Las tecnologías de la información y la comunicación nos permiten avanzar en el desarrollo de sistemas cada
día más eficientes de organización, búsqueda y recuperación de información. De esta manera podemos almacenar
y recuperar a voluntad una infinidad de elementos que constituyen la representación de una parte importante del
conocimiento que poseemos.
En algunos casos, las nuevas tecnologías nos permiten incluso acceder a conocimiento que creíamos perdido
para siempre. Durante las excavaciones llevadas a cabo hace unos 250 años en la ciudad romana de Herculano, que
fue sepultada en la gran erupción del Vesubio en el año 79 a.C. junto con Pompeya, se encontraron unos 1.200
manuscritos en rollos de papiro pertenecientes a la magnífica biblioteca del filósofo y poeta Filodemo
(http://www.humnet.ucla.edu/humnet/classics/Philodemus/Philhome.htm). Sólo 800 rollos han sido desplegados y
de ellos sólo ha sido posible leer un 10% del contenido debido a su mal estado de conservación. En la mayoría de
los casos no se puede ni saber de qué obra se trata. Se sospecha que entre ellos puede haber obras de Aristóteles,
Arquímedes o Virgilio entre otros, algunas de las cuales se habían perdido y sólo se sabía de ellas por referencias de
otros autores. Y la importancia del yacimiento puede ser aún mayor si, como creen algunos, aún está sepultado el
resto de la biblioteca con decenas de miles de manuscritos. Hace poco, unos expertos de la universidad de Bringham
Young de Salt Lake City en Estados Unidos han anunciado que la aplicación de nuevas tecnologías digitales va a
permitir la lectura de hasta un 30% del contenido de esos papiros (http://www.imaging.org/conferences/PICS2001/
details.cfm?pass=50).
Sin embargo, vemos la otra cara de la moneda cuando la tecnología, debido a su propia dinámica, se convierte
en un impedimento para la recuperación de la información almacenada. Casi todos hemos experimentado la
desagradable sensación de no poder acceder a un archivo donde teníamos una información preciosa porque éste
estaba creado en una versión demasiado antigua del procesador de textos (las estrategias de marketing obligan a
sacar nuevas versiones con frecuencia), o peor aún, en un procesador de textos pasado ya a mejor vida.
Ya existe en el mundo una gran cantidad de información que está almacenada en soportes obsoletos. Algunos
de ellos pueden todavía ser leídos porque se han conservado modelos antiguos de hardware y software para esa
función, pero la información contenida en otros muchos es imposible de recuperar. Como me decía Alice Keefer,
experta en la preservación de recursos de información, las consecuencias de esta situación pueden llegar a ser más
graves de lo que pensamos a primera vista. Sólo imaginemos, por ejemplo, que de pronto nos damos cuenta de que
no podemos acceder a una base de datos donde se había guardado la localización de los puntos geográficos en los
que se habían enterrado vertidos radioactivos…
Evitar la pérdida de la información almacenada a causa de la obsolescencia de los sistemas va a ser una
responsabilidad cada vez más importante de los gestores de información. Ya hay instituciones que tienen como una
de sus prioridades garantizar el acceso y la conservación de la información que se almacena en formato digital. Éste
es el caso, por ejemplo, de la “Cite des Archives Contemporaines” que los Archivos Nacionales de Francia tienen en
la ciudad de Fontainebleau (debo agradecer esta información a Ramon Alberch, “Arxiver en cap” del ayuntamiento
de Barcelona).
A veces no está de más reconocer las ventajas de la tecnología de almacenaje de información de los antiguos
romanos; o la más sólida aún de los antiguos egipcios que, a través de los grabados en la piedra en sus innumerables
monumentos nos legaron la posibilidad de aproximarnos a su fascinante civilización. ¿Hubiera sido eso posible si
la piedra roseta hubiera estado en un disket de 5”1/4? Aunque para comprender mucho mejor esos tiempos
antiguos, nada como el conocimiento tácito que se adquiere, por ejemplo, paseando por las calles de Pompeya. Y
aún más si, como fue mi caso, tienes ocasión de hacer la visita en compañía de un buen amigo entusiasta de la
arqueología y la historia antigua.
Agustí Canals
Know-org
21
16. Indicios del futuro
La información relevante que la organización sea capaz de obtener es clave en la gestión del conocimiento por
partida doble.
Por una parte, es obvio que la información nos sirve para aumentar el conocimiento. Pero, por otra, es
necesario tener en cuenta también cómo la información nos permite mejorar los procesos que diseñamos para la
gestión del conocimiento.
Como en todo proceso de gestión en las organizaciones, cuanta más información poseemos, mejor podemos
decidir las líneas de actuación. Así, por ejemplo, supongamos que debemos diseñar un proyecto de gestión del
conocimiento en el cual queremos poner a la disposición de toda la organización el conocimiento que poseen sus
integrantes, incorporándolo en forma explícita en las bases de datos de un repositorio.
Independientemente de la metodología y la tecnología empleadas, es claramente imposible que podamos
abarcar todo ese conocimiento. Debemos priorizar algunos aspectos. Pero, ¿cuáles? Nuestro objetivo es que el
conocimiento almacenado sea útil en las situaciones que tenga que afrontar la organización. El problema es que no
sabemos con certeza cuáles van a ser esas situaciones. Pero eso no quiere decir que no podamos hacer nada.
De hecho, en la mayoría de los procesos de decisión hay un elemento de incertidumbre. Raras veces conocemos
todo lo que se refiere a la situación sobre la cual decidimos. Una parte de ese desconocimiento es inevitable, pues
no podemos saber con certeza cómo va a ser el futuro. Sin embargo, hay información que existe en la actualidad,
que es poseída por otros agentes, y que si la obtenemos nos permitirá decidir más adecuadamente.
Además, aunque no podamos conocer el futuro, la información adecuada puede servirnos para reducir el
grado de incertidumbre, ya que, o bien nos proporciona indicios que ayudan a predecir algunos aspectos de ese
futuro o nos permite asignar probabilidades más ajustadas a las distintas posibilidades que el futuro nos puede
deparar.
Dos libros que he estado leyendo últimamente me han sugerido esta reflexión. El primero es un libro de
divulgación, accesible y muy interesante de Peter L. Bernstein: “Against the Gods: The Remarkable Story of Risk”
(http://www.amazon.com/exec/obidos/ASIN/0471295639/infonomia). Se trata de un ensayo donde se describe el
papel que el riesgo ha desarrollado a lo largo de la historia y el tratamiento que ha tenido por parte del hombre. En
él, el autor expone una curiosa idea: lo que señala la frontera entre la era moderna de la humanidad y los tiempos
antiguos no es la ciencia, la tecnología ni la política, sino el tratamiento racional de lo que nos depara el futuro, el
concepto de riesgo. Es a partir de la teoría de la probabilidad que el hombre empieza a considerar el futuro como
algo que se puede tratar de forma racional —y, por tanto, tomar decisiones de cierto riesgo calculado— y no algo
reservado a los oráculos y, en definitiva, a la voluntad de los dioses.
El segundo libro es más técnico y requiere algunos conocimientos previos de análisis económico y
matemáticas. Se trata de “The Analytics of Uncertainty and Information” (http://www.amazon.com/exec/obidos/
ASIN/0521283698/infonomia), de Jack Hirshleifer y John G. Riley, profesores del Departamento de Economía de la
Universidad de California en Los Ángeles. Para mí lo más interesante es su enfoque. A lo largo de su historia, el
análisis económico ha debido tener siempre muy en cuenta el fenómeno de la información. Éste aparece cuando los
actores económicos toman decisiones, cuando diseñan estrategias, cuando se producen asimetrías en lo que los
distintos actores conocen o se echa en falta cuando se producen situaciones de incertidumbre. Sin embargo, raras
veces se ha tomado la información como elemento nuclear a partir del cual se puede ordenar la teoría económica.
La obra de Hirshleifer y Riley es un paso en esa dirección.
Así, el libro tiene dos partes. En la primera, bajo el título de “Economía de la incertidumbre” se abordan las
situaciones en las cuales deben tomarse decisiones óptimas sobre el futuro, desconociendo cómo va a ser éste, y se
presentan los principales logros del análisis económico en este ámbito. Posteriormente, en la segunda parte titulada
Agustí Canals
Know-org
22
“Economía de la Información” se toma la información como hilo conductor y se incide en el tratamiento que la
teoría económica hace de los distintos problemas en los cuales la información tiene un papel relevante. Se habla,
por ejemplo, de la información como bien público, de las decisiones sobre investigación y desarrollo, de las
asimetrías de información y el diseño de contratos, de la aplicación de la teoría de juegos a las situaciones
estratégicas, de la economía de las subastas o de los fenómenos de segmentación (“screening”) y señalización
(“signaling”) en situaciones de información oculta.
Algunas voces propugnan que el papel preponderante de la información y el conocimiento en la nueva
economía requieren una nueva ciencia económica. Quizás eso sea cierto, pero también es verdad que el análisis
económico actual incorpora ya muchos elementos interesantes al respecto. Si queremos desarrollar una teoría sólida
de la información y de la gestión del conocimiento deberemos tener muy en cuenta esos aspectos.
Agustí Canals
Know-org
23
17. Prisioneros del dilema
Uno de los problemas principales para un responsable de gestión del conocimiento es conseguir que el
conocimiento sea compartido.
Para cualquier trabajador del conocimiento supone un esfuerzo suplementario poner a disposición de sus
compañeros lo que ha aprendido en su quehacer diario. Ya sea, por ejemplo, introduciendo información en una base
de datos o bien difundiendo experiencias en una comunidad virtual, compartir conocimiento requiere una
dedicación extra que sólo se producirá cuando el empleado perciba claramente los beneficios que le proporciona.
Algunas empresas utilizan sistemas de incentivos para conseguir ese fin. En un artículo de octubre de 2000 en
la revista Knowledge Management titulado “Incentives for Sharing” (http://www.destinationcrm.com/km/dcrm_
km_article.asp?id=430&ed=10%2F1%2F00) se presentan una serie de estrategias que utilizan algunas compañías
para fomentar la ‘compartición’ de conocimiento:
1.- Seleccionar empleados proclives a compartir. Ya en la selección de personal se escogen colaboradores que
demuestren una propensión a trabajar en equipo y compartir experiencias. Para ello se involucra a los empleados
actuales en el proceso (Collective Technologies).
2.- Desarrollar un clima de confianza. Se parte de la creencia de que se va a compartir conocimiento cuando
impere una atmósfera de confianza. Así, empezando por un código ético, se trata de fomentar una cultura de
reconocimiento en la cual se premie la contribución de los individuos al bien común (Buckman Laboratories).
3.- Fomentar la ‘compartición’ como valor central. En las actuaciones, sistemas y valoraciones de la compañía
en cualquier ámbito hay que subrayar la importancia de compartir conocimiento. Cada empleado debe sentirse
animado a compartir en su parcela y en la manera adecuada a su función (Cap Gemini, Ernst & Young).
4.- Establecer programas de reconocimiento de la ‘compartición’ de conocimiento. Es esencial para motivar las
acciones en ese sentido y para demostrar el interés y el compromiso de la dirección (Harris Government
Communications Systems).
5.- Reorganizar adecuadamente. Parece demostrado que la gente comparte en mayor medida con los
integrantes de su mismo equipo. Por lo tanto, es aconsejable que cada empleado pertenezca a varios equipos dentro
de la organización (Northrop Grumman Air Combat Systems).
6.- Crear comunidades. Como vimos en un artículo anterior de Know-org, la creación de comunidades de
práctica en torno a intereses comunes es fundamental para la transmisión de conocimiento. La utilización de
intranets permite crear comunidades virtuales sin barreras de espacio y tiempo (World Bank).
7.- Fomentar la aparición de líderes. A veces, un pequeño grupo de entusiastas de la gestión del conocimiento
puede actuar como catalizador arrastrando a toda una organización (Capital One Financial).
Podríamos enumerar más “recetas”, pero lo fundamental para que esos incentivos surgan efecto es que en la
cultura general de la organización, la ‘compartición’ de conocimiento se perciba como un valor apreciado y, por lo
tanto, reconocido. Una acción aislada no consigue nada si el resto de las actuaciones de la organización no siguen
la misma línea. Por ejemplo, si en un equipo de ventas se premia al comercial que consigue la cifra de facturación
más alta, difícilmente se conseguirá que los mejores compartan sus tácticas de venta con los demás, aunque
formalmente se anime ese comportamiento.
Pero, ¿es eso suficiente? Para entender un poco mejor los mecanismos que intervienen, podemos profundizar
en el análisis de la ‘compartición’ de conocimiento desde otro punto de vista, examinando los motivos individuales
para compartir. Pensemos en un individuo, llamémosle R, que actúa según un estricto criterio racional de costebeneficio. ¿Por qué va a tomarse la molestia de compartir su conocimiento con los demás si eso significa un esfuerzo
Agustí Canals
Know-org
24
añadido? Está claro que para el colectivo lo mejor es compartir el conocimiento, pero analicemos la situación en
detalle desde el punto de vista individual: R tiene dos opciones, compartir o no compartir. Supongamos que los
compañeros de R comparten su conocimiento con él. Obviamente, desde un punto de vista puramente egoísta, para
R lo más rentable es no compartir. Así se aprovecha del conocimiento de los demás sin dar nada a cambio
(comportamiento conocido como “free rider”). Si, por el contrario, sus compañeros no comparten el conocimiento,
nuevamente la mejor estrategia de R es no compartir, pues de lo contrario sus compañeros se aprovecharían de su
conocimiento y esfuerzo, y R no recibiría nada a cambio. Así, la mejor estrategia es siempre no cooperar.
Este tipo de situaciones donde la actuación óptima (o “estrategia dominante”) para cada participante es no
cooperar mientras que lo óptimo para el colectivo sería que todo el mundo cooperase se conoce en teoría de juegos
como “dilema del prisionero”. Y es un dilema que, planteado de esta manera, no tiene solución.
¿Quiere eso decir que es una utopía pensar en conseguir que se comparta de verdad el conocimiento sin
introducir compensaciones adicionales? No exactamente. En un próximo Know-org veremos que posteriores
desarrollos en la aplicación de la teoría de juegos aportan resultados más esperanzadores.
Agustí Canals
Know-org
25
18. Instinto de cooperación
Aunque parezca que no compartir el conocimiento sea la estrategia más rentable, en un marco social como las
organizaciones eso no está tan claro.
En el artículo anterior de Know-org vimos que en situaciones de “dilema del prisionero” (DP) la estrategia
dominante desde un punto de vista de teoría de juegos era la no cooperación. Según ese resultado, un responsable
de gestión del conocimiento difícilmente podría conseguir que cada integrante de la organización pusiera a
disposición de los demás lo que conoce.
Sin embargo, una organización es un sistema social, formado por personas y que tiene una continuidad en el
tiempo. Eso hace que deba tenerse en cuenta otros factores.
A nivel social se producen a menudo situaciones de DP. Pensemos en los casos en que varios individuos
comparten unos recursos comunes. Por ejemplo, si el conjunto de los pescadores de una zona no pone un límite a
las capturas, el resultado final es que las especies del lugar se extinguirán, acabando con la actividad pesquera. Pero
cada pescador puede pensar egoístamente que para él lo mejor es capturar el máximo número de peces.
Actualmente estamos viviendo otro caso de DP en la política internacional. Todos los países están de acuerdo en
que hay que disminuir las emisiones contaminantes, pero es muy difícil conseguir que cada país se comprometa a
reducir las suyas.
En algunas de esas ocasiones, sin embargo, a menudo observamos cooperación. ¿Por qué? Una posible
explicación es que en los sistemas sociales las situaciones de DP no se producen aisladamente sino que se repiten en
el tiempo. Así, quien no coopere una vez puede ser “castigado” en posteriores ocasiones. De hecho, Robert Axelrod
(http://www.amazon.com/exec/obidos/ASIN/0465021212/infonomia) demostró mediante simulaciones
matemáticas por ordenador que la estrategia más adecuada en una situación de DP repetida es la conocida como
“tit-for-tat”, que consiste en empezar cooperando y posteriormente “pagar con la misma moneda” a la otra parte.
Es decir, no cooperar con quien no lo haya hecho en la ocasión anterior y cooperar con quien sí lo haya hecho. Así,
el “ojo por ojo” bíblico parece ser la mejor estrategia.
Alguien puede objetar que cuando tomamos una decisión no lo hacemos después de complicados cálculos y
simulaciones matemáticas. De acuerdo. A menudo actuamos basándonos en el instinto. Pero ¿qué son los instintos?
Pues, como muy bien explica Matt Ridley en el muy interesante libro The Origins of Virtue
(http://www.amazon.com/exec/obidos/ASIN/0140264450/infonomia), los instintos son respuestas automáticas que
nuestra especie ha ido desarrollando a lo largo de los siglos y que deben ser las que mejores resultados dan, pues
han superado la criba de la selección natural. Así, probablemente—y sin saberlo—nuestros instintos incorporan la
colaboración (hasta cierto punto, y siempre y cuando sea posible “castigar” a los “tramposos”) como
comportamiento social óptimo.
Por mucha tecnología que utilicemos, la gestión del conocimiento debe basarse también, queramos o no, en
instintos desarrollados hace cientos de miles de años por nuestros antepasados cuando dejaron los árboles para
adaptarse a la sabana africana.
Nota: Una introducción muy entretenida al dilema del prisionero y a la teoría de juegos, así como a la vida de
su creador John von Neumann, puede encontrarse en el libro de William Poundstone Prisoner’s Dilemma
(http://www.amazon.com/exec/obidos/ASIN/038541580X/infonomia).
Agustí Canals
Know-org
26
19. Creación de capital social
La creación de capital social en las organizaciones requiere disponer de espacio y de tiempo... y poder contar
historias.
De un tiempo a esta parte, parece que el énfasis en la gestión del conocimiento está pasando de la tecnología y
el capital intelectual individual a los aspectos más sociales. Como nos decía Alfons Cornella en uno de sus mensajes
(http://www.infonomia.com/extranet/index.asp?idm=1&idrev=1&num=570), se está escribiendo cada vez más
sobre la importancia del capital social de las organizaciones.
Uno de los últimos trabajos aparecidos sobre el capital social es el libro In Good Company: How Social Capital
Makes Organizations Work, de Don Cohen y Laurence Prusak. En él los autores, de reconocido prestigio en el
campo de la gestión del conocimiento- el primero es editor de la revista Knowledge Directions, y el segundo es
director del IBM Institute for Knowledge Management y coautor del libro Working Knowledge, referencia obligada
en este ámbito (http://www.amazon.com/exec/obidos/ASIN/1578513014/infonomia)-, plantean algunas
interesantes reflexiones.
Quizás uno de los aspectos más interesantes del punto de vista que aporta el concepto de capital social es que
introduce matices en la idea de la organización como un conjunto de individuos unidos por contratos. La idea es
que esos contratos contemplan mucho más que una determinada retribución económica o un desarrollo
profesional. Cada uno de nosotros esperamos de las organizaciones en las que nos integramos, o con las que
colaboramos, que contribuyan a satisfacer también nuestras necesidades de interacción social, reconocimiento o
incluso afectividad. Las empresas que consiguen eso acaban viéndolo reflejado en sus resultados.
Para Cohen y Prusak, el capital social se construye básicamente en el seno de dos tipos de grupos: las
comunidades y las redes. De las comunidades ya hablamos en el artículo 11 de Know-org. Las redes se diferencian
de las comunidades en que no tienen un objetivo común tan marcado, las relaciones son mucho menos estrechas y
no hay una frontera tan clara entre el interior y el exterior. Cada uno de nosotros posee una red de contactos con
los cuales se unen múltiples tipos de relaciones de variada intensidad, pero que constituyen un capital social
innegable.
Un elemento imprescindible para que el capital social se desarrolle en comunidades y redes es la confianza.
Como dicen los autores del libro, la confianza es el lubricante del capital social. Si queremos que el conocimiento
fluya por la organización, los individuos deben percibir que se actúa con respeto y se juega limpio.
Entre las acciones posibles para fomentar la creación de capital social, los autores señalan dos como
fundamentales. Una es facilitar espacio y tiempo. La otra es fomentar la conversación, en especial la transmisión de
historias.
Para construir lazos sociales es imprescindible que haya los espacios adecuados, físicos y temporales. Las
oficinas sin lugares donde se pueda charlar informalmente dificultan enormemente la creación de relaciones
sociales, al igual que las jornadas laborales que no dejan tiempo para el contacto distendido con los compañeros.
La función de la conversación en la creación de capital social es indiscutible. Uno de los métodos más potentes
para construir capital social son las historias, reales o ficticias, que van pasando de unos a otros en una organización.
Las historias tienen la virtud de transmitir de manera muy efectiva las normas, valores, actitudes y
comportamientos de los grupos sociales. Incluso los aparentemente inútiles chismes, habladurías o murmuraciones
contribuyen a transmitir lo que se considera importante y cómo se valoran las actuaciones de los miembros de la
organización.
En el fondo, estamos “descubriendo” que lo que funciona en las organizaciones es lo que desde siempre ha
funcionado en las sociedades humanas. Millones de años de evolución deben haber servido para algo.
Agustí Canals
Know-org
27
20. Volatilidad y virtualidad
Nuevos factores como la volatilidad de los empleados en el puesto de trabajo y la virtualidad pueden afectar al
capital social.
(Tiempo estimado de lectura: 3 minutos)
En el libro In Good Company de Cohen y Prusak, del que ya hablamos en el artículo anterior , los autores
identifican dos factores que pueden dificultar en las organizaciones actuales la consecución de un capital social
imprescindible para la creación y la transmisión de conocimiento: la volatilidad y la virtualidad.
La volatilidad se refiere al poco tiempo medio de permanencia de un empleado en un puesto de trabajo
concreto. Este efecto puede ser causado por el comportamiento del mismo empleado o por la actuación de la
organización. Por una parte, la hasta no hace mucho muy popular práctica de las “stock options” y las múltiples
oportunidades que surgen a los profesionales son un incentivo constante para el cambio de trabajo. Por otra parte,
los frecuentes procesos de fusiones, adquisiciones y cambios de localización geográfica de las áreas de negocio hacen
frecuentes las incorporaciones y los despidos y fomentan la movilidad en el puesto de trabajo.
Este escenario parece apuntar hacia una economía donde primen los agentes libres y los contratos por
proyectos y, según algunos, hacia el fin de la lealtad a la organización como valor. Sin embargo, advierten Cohen y
Prusak, estas prácticas pueden resquebrajar uno de los activos más importantes de las organizaciones: el capital
social. Si el individuo no permanece en la empresa o en el puesto de trabajo el tiempo suficiente para establecer
lazos sociales, la organización sólo será equivalente a la suma de sus empleados. Difícilmente se crearan redes o
comunidades que permitan obtener los beneficios derivados de la interacción social.
Ante ese riesgo de pérdida de capital social, los autores apuntan un curioso antídoto: ¡fomentar el capital social!
Efectivamente, si los profesionales se sienten bien en su organización porque pueden desarrollar también su
vertiente social como personas será más difícil que se planteen dejarla, aunque reciban ofertas económicamente más
atractivas. Por otra parte, un buen ambiente social puede mantener la cohesión en tiempos duros derivados de
reestructuraciones de plantilla, fusiones o adquisiciones.
Otro fenómeno reciente que puede afectar al capital social es la virtualidad. El uso de tecnologías como el
correo electrónico, las intranets, la videoconferencia o la telefonía móvil hacen posible que muchas actividades
puedan realizarse prescindiendo del contacto directo. Cohen y Prusak mantienen que en el estadio tecnológico
actual, la virtualidad presenta algunas desventajas respecto a la presencialidad: las tecnologías no pueden abarcar el
amplio rango de tipos de comunicación que utilizamos para relacionarnos, las conexiones virtuales tienden a ser
breves e intermitentes y con un propósito definido, y la comunicación virtual a través de correo electrónico o
videoconferencia tiende a aislar a quien lo está utilizando de su entorno. Quizá eso explique que la profetizada
explosión del teletrabajo no se haya producido, como apuntaba Manuel Castells (para más información consultar
el artículo 6 de este documento). Está claro que el teletrabajo tiene ventajas importantes tanto para el trabajador
como para la empresa, pero también tiene un coste en capital social que puede superar esos beneficios.
Sin embargo, multitud de experiencias positivas demuestran la utilidad de la virtualidad. El reto, a mi entender,
está en encontrar la manera de aprovechar esa virtualidad para generar capital social en lugar de debilitarlo.
Agustí Canals
Know-org
28
21. Conocimiento implícito
A menudo hablamos de conocimiento tácito y conocimiento explícito, pero... ¿qué hay del conocimiento
implícito?
(Tiempos estimado de lectura: 3 minutos)
Todos sabemos que existe una compañía llamada Coca-cola. Todos sabemos que esa compañía elabora un
producto de ese mismo nombre. Todos sabemos que existen máquinas expendedoras de latas de coca-cola. Todos
sabemos que podemos encontrar esas máquinas en muchos lugares. Y todos sabemos que en Marte no existen
máquinas expendedoras de latas de coca-cola. Pero, ¿cómo sabemos eso? Nadie nos lo ha dicho nunca. Ese
conocimiento no nos ha sido transmitido nunca, y sin embargo lo poseemos.
Con este ejemplo me explicaba Max Boisot, autor del libro Knowledge Assets (http://www.amazon.com/exec/
obidos/ASIN/019829607X/infonomia) del que ya hablamos en el número 3 de Know-org , el concepto de lo que él
llama conocimiento implícito. El conocimiento implícito es todo aquél que damos por supuesto, aquél que no
vemos necesidad de explicitar porque nos parece evidente. Sin embargo, ese conocimiento es fundamental para la
comunicación y, por tanto, para la transmisión de nuevo conocimiento. Es un común denominador necesario para
que nos podamos entender, un contexto que hace posible la comunicación.
El problema viene cuando pretendemos construir un sistema de gestión del conocimiento que sea capaz de
almacenar el conocimiento de la organización y al que toda persona que necesite ese conocimiento pueda acudir
para adquirirlo. Quien aporta el conocimiento a ese sistema debe suponer un cierto nivel de conocimiento implícito
común con los que vayan a utilizarlo. Y eso es muy difícil, ya que a priori no se sabe quiénes van a ser.
Supongamos, por ejemplo, que un consultor está describiendo una buena práctica en el ámbito de la
planificación de la producción para incluirla en una base de datos. Se ha observado que la observación directa del
estado de la planta de producción y el contacto directo con los operarios por parte de una directora de planificación
que a menudo “se pasea” por la fábrica contribuye a una más eficaz planificación de la producción. Parece sencillo
y fácil de describir. Pero, ¿podemos suponer que todo el mundo sabe qué es una directora de planificación? Si la
consultora trabaja a nivel mundial, puede ocurrir que en algunos países la planificación no sea considerada una área
independiente de producción, o incluso que en algunas culturas sea inconcebible que una mujer ocupe ese puesto.
Se está suponiendo un conocimiento implícito que quizás no todos los posibles usuarios de la base de datos posean.
Es evidente que es imposible incluir todo el conocimiento implícito en un repositorio, pues la tarea sería
ingente tanto a nivel de medios físicos como a nivel del tiempo necesario. Además, la cantidad de información
necesaria para transmitirlo no sería digerible en modo alguno. Se puede pensar en almacenar un mínimo nivel de
conocimiento implícito que haga posible la comunicación. Sin embargo, ese nivel es diferente para cada posible
usuario. Un nivel determinado puede ser insuficiente para unos mientras que para otros suponga una información
(o “no información”, pues no aporta nada nuevo) redundante que sólo sirve para entorpecer el uso del sistema y, a
la larga, para que éste no sea utilizado. Y muchas veces quien intenta plasmar el conocimiento no sabe quienes van
a utilizarlo, de manera que no puede ni intentar adivinar ese nivel.
Es interesante observar que el concepto de conocimiento implícito no se corresponde con el de conocimiento
tácito. El conocimiento implícito puede ser en muchas ocasiones fácilmente explicitable. En este caso el problema
no es la dificultad intrínseca de explicitar el conocimiento, sino las limitaciones de medios materiales, tiempo y
capacidad de proceso de los seres humanos.
Probablemente hace falta avanzar en nuestro conocimiento teórico sobre cómo funcionan los procesos
relacionados con la transmisión de conocimiento y el desarrollo de nuevas tecnologías para dar soluciones
satisfactorias a este tipo de problemas.
Agustí Canals
Know-org
29
22. Organizaciones basadas en el conocimiento
El énfasis en el conocimiento debería traer también otra manera de concebir las organizaciones.
(Tiempo estimado de lectura: 3 minutos)
A veces tengo la sensación que la gestión del conocimiento lleva el camino de convertirse en una más de las
modas que periódicamente aparecen en el mundo de la gestión empresarial y que prometen ser la panacea que
solucione todos los problemas para, al cabo de un tiempo, desaparecer sin dejar rastro. O, peor aún, dejando un
rastro de desolación.
Así ha sucedido con la reingeniería de procesos, la calidad total, el “downsizing”, el “empowerment”, etc. Sería
injusto decir que todos esos conceptos no han servido para nada (creo que todos han aportado alguna cosa), pero
no han conseguido permanecer como algo sólido y duradero en la cultura empresarial.
Sin embargo, estoy convencido de que la idea del conocimiento como factor clave en las organizaciones es algo
mucho más potente que una simple moda. Quizás pasen algunos de los métodos o de las tecnologías que nos
proponen por doquier para gestionar el conocimiento. Hasta puede que pase incluso el término “gestión del
conocimiento”. Pero creo firmemente que la conciencia del papel que juegan el conocimiento y la información en
las organizaciones ha llegado para quedarse.
A mi modo de ver, una de las diferencias fundamentales de esta idea con respecto a pasados “leif-motiv” del
management es que puede ser la base para una concepción diferente de la organización. En esta línea va el
razonamiento que hace Chris Bartlett, profesor de la Harvard Business School, en su artículo “The KnowledgeBased Organization: A Managerial Revolution”, publicado en el interesante libro The Knowledge Advantage
(http://www.amazon.com/exec/obidos/ASIN/1841120677/infonomia). La tesis de Bartlett es que las bases
organizativas que funcionaban bien en la economía industrial ya no sirven para la economía del conocimiento.
Tradicionalmente se centraba la atención en tres elementos: la estrategia, la estructura y los sistemas. Esto dio lugar
a una manera de concebir la organización que tuvo como máximo desarrollo la gran corporación estructurada en
divisiones y que tenía como estrategia básica la diversificación. La estructura jerárquica se basaba en tres niveles de
gestión: la alta dirección, encargada de definir la estrategia, los mandos intermedios, que tenían como función
gestionar los sistemas y que trasladaban la estrategia hacia la base y los resultados hacia la cúpula, y los mandos de
primera línea, encargados de las operaciones.
Según Bartlett, esa estrategia funcionó en su tiempo porque se adaptaba bien al entorno, pero ya no sirve en la
situación actual. En un escenario que ya no se caracteriza por el crecimiento continuo sino por discontinuidades
estructurales (la explosión de la información y el conocimiento) la tarea principal ya no es asignar los recursos, sino
acumular conocimiento. El recurso escaso para muchas compañías ya no es el capital, sino el conocimiento que
poseen.
En base a los estudios realizados de casos de empresas de éxito como ABB o 3M, Bartlett concluye que las claves
de la nueva organización son tres. Primero, un concepto de la organización basado en las personas y las relaciones
entre ellas más que en los procedimientos y las funciones. Segundo, un cambio en el rol de los directivos. Más que
estrategas, controladores e implementadores se necesitan líderes capaces de “construir” y desarrollar la organización
y emprendedores capaces de innovar. Tercero, una nueva filosofía de gestión basada en los objetivos, los procesos y
las personas.
Tal como dice Bartlett, las organizaciones no son tan sólo estructura. La estructura sólo es el esqueleto. Las
organizaciones también tienen fisiología, en la cual el flujo de información y conocimiento juega el papel del riego
sanguíneo, y una psicología, que se conforma con los valores de las personas y con su manera de pensar y actuar.
Agustí Canals
Know-org
30
23. ¿Gestión del conocimiento sin tecnología?
Últimamente, parece que el papel de la tecnología en la gestión del conocimiento está en horas bajas.
(Tiempo estimado de lectura: 2,5 minutos)
Junto con la toma de conciencia sobre la importancia del conocimiento en la actividad de las organizaciones,
el desarrollo tecnológico fue un elemento clave en el surgimiento de la preocupación por la gestión del
conocimiento. La sensación hace unos pocos años era que las nuevas tecnologías permitirían construir sistemas
capaces de capturar, almacenar y difundir el conocimiento de manera casi automática. Así, las empresas podrían
controlar su acerbo de conocimiento y gestionarlo de manera óptima.
Aunque el desarrollo de la tecnología web y de las bases de datos ha permitido avances significativos en ese
sentido, la naturaleza del problema se ha demostrado más compleja de lo previsto y las herramientas tecnológicas
actuales han resultado insuficientes. Se ha visto la imperiosa necesidad de contar con factores alejados de lo
tecnológico como la interacción social, la cultura organizativa o el conocimiento tácito de los individuos.
Eso ha llevado al desarrollo de ideas y conceptos muy interesantes, algunos de los cuales ya hemos comentado
en Know-Org: comunidades de práctica, el contexto social de la información, el capital social, entre otros.
Sin embargo, esta situación ha hecho que en ciertos sectores se extienda una postura tan escéptica con las
tecnologías que se ha pasado al otro extremo: una gestión del conocimiento sin tecnología. Así, a veces, la gestión
del conocimiento ha pasado a ser solamente un tema de diseño organizativo o de gestión de recursos humanos,
dejando las herramientas tecnológicas completamente a un lado. Indudablemente, eso hacía más fácil para algunos
subirse al “furgón de cola” e intentar rentabilizar viejos esquemas rebautizándolos con el término de moda: gestión
del conocimiento.
Lo que a primera vista parece sorprendente es que incluso compañías indudablemente tecnológicas como IBM
dejen la tecnología en un segundo plano. Por ejemplo, observando los proyectos de investigación actuales del
Institute for Knowledge Management (http://www-4.ibm.com/software/data/knowledge/ikm/research.html)
vemos que frente a varias líneas de investigación con nombres como “comunidades de práctica”, “estrategia del
conocimiento”, “intermediación y roles del conocimiento”, “capital social”, “alianzas estratégicas y gestión del
conocimiento” e “historias para comunicar conocimiento tácito” sólo hay una línea denominada “tecnologías del
conocimiento”.
Pero si profundizamos en una de esas líneas, por ejemplo la de la utilización de historias para comunicar
conocimiento tácito (concepto que ya comentamos brevemente en el artículo 19 de Know-Org ) vemos que el
objetivo es “facilitar la captura, creación, organización, indización, búsqueda y utilización de historias”
(http://www.research.ibm.com/knowsoc/project_index.html). Evidentemente, IBM considera la tecnología una
herramienta potentísima para conseguir ese objetivo.
A mi modo de ver, ésa es la postura más inteligente. Las carencias de las tecnologías nos han ayudado a detectar
los problemas más importantes en la gestión del conocimiento. El desarrollo de nuevas tecnologías puede
ayudarnos a solucionarlos. La tecnología es tan sólo una herramienta, pero, como tal, puede sernos muy útil
siempre que recordemos que el factor principal son las personas.
Agustí Canals
Know-org
31
24. Evolución
El mecanismo responsable de la evolución de las especies puede ser un modelo para entender la creación de
conocimiento.
(Tiempo estimado de lectura: 3 minutos)
La teoría de la evolución, formulada por primera vez por Charles Darwin, es una de las teorías científicas que
más ha influenciado el pensamiento en los últimos siglos. De pronto, el hombre, el rey de la creación, pasó a ser uno
más entre los animales descendientes de los primeros seres vivos.
El mecanismo evolutivo es muy sencillo, y sin embargo fascinante. Las especies van variando sus características
a lo largo de los siglos de manera que su adaptación al medio mejora. Sin embargo, no es que las condiciones del
medio sean la causa directa de la variación; no se trata de variaciones dirigidas a una mejor adaptación. Lo que pasa
en realidad es que se producen multitud de variaciones, ya sea por recombinación genética a través de la
reproducción o bien por simple mutación espontánea. La mayoría de ellas no aportan nada positivo o incluso son
perjudiciales para la especie. Sólo una pequeña parte de las variaciones sirven para mejorar la adaptación al medio.
Lo que ocurre es que, debido a su mejor adaptación, los individuos que presentan esas mejoras son los que tienden
a sobrevivir. De esta manera, los genes que sobreviven son los que incorporan las modificaciones positivas.
Es un mecanismo bastante eficaz, pero poco eficiente. Son necesarios billones de cambios que no llevan a
ninguna parte y es necesario que pasen miles de millones de años para conseguir la evolución en la dirección
adecuada. De hecho, se malgastan muchos recursos. Sin embargo, por otro lado, el proceso no requiere una
inteligencia que lo gobierne. La evolución se va produciendo espontáneamente.
La potencia del mecanismo ha hecho que la idea se extienda fuera del ámbito estricto de la biología. Por
ejemplo, para encontrar solución a problemas complejos mediante técnicas de computación puede intentarse
mediante el método tradicional de tratar de encontrar la solución óptima. Pero también puede utilizarse la idea de
la evolución. Así, es posible crear un conjunto de soluciones iniciales, ver cómo se comportan mediante una
simulación y dejar que se reproduzcan y recombinen las mejores. De esta manera, al cabo de unas generaciones
tenemos soluciones satisfactorias. Con esta idea de base se desarrolla la llamada “computación evolutiva”
(http://www.isgec.org) o la “programación genética” (http://www.genetic-programming.org). Estas técnicas se
utilizan en algunos casos en la minería de datos (“data mining”) para descubrir “conocimiento oculto” en las bases
de datos.
Pero la potencia de la idea de evolución es tal que incluso hay quien la propone como el mecanismo
fundamental de la creación de conocimiento. En efecto, existe una “epistemología evolutiva”, basada en algunos
trabajos de los últimos años del filósofo Karl Popper, y que se trata con profundidad en el libro Evolutionary
Epistemology, Rationality, and the Sociology of Knowledge (http://www.amazon.com/exec/obidos/ASIN/
0812690397infonomia). Es un tema muy teórico, bastante denso y complejo, pero la idea fundamental es sencilla:
el mecanismo por el cual nuestro conocimiento crece es similar al de la evolución de las especies. Es lo que algunos
de los autores del libro llaman “variación ciega y retención selectiva”. En nuestra mente se generan, de manera
inconsciente y también consciente, múltiples ideas. Descartamos directamente la mayoría de esas ideas porque no
tienen sentido. Unas pocas son posibles candidatas a ser la solución de un problema o la explicación de un hecho
determinado. Después de contrastarlo, nos quedamos sólo con las que realmente funcionan. Así vamos
construyendo nuestro conocimiento. No es que nos propongamos elaborar las ideas que necesitamos, sino que
generamos “ciegamente” gran cantidad de ellas y lo que hacemos es seleccionar y retener las que demuestran alguna
utilidad.
Sin duda, es una visión muy interesante y sugestiva de la creación de conocimiento.
Agustí Canals
Know-org
32
25. Management evolutivo
La idea evolutiva de la creación de conocimiento puede aportar puntos de vista interesantes para el management.
(Tiempo estimado de lectura: 2 minutos)
En el mensaje anterior hablamos de la creación de conocimiento como un proceso evolutivo basado en la
“variación ciega” y la “retención selectiva”. Esta idea, más bien teórica, puede ayudarnos a sacar interesantes
conclusiones prácticas. A mi me ha sugerido una serie de ideas sobre las organizaciones y su gestión.
1.- Nuestro conocimiento no es, al igual que las soluciones de la evolución biológica, una solución óptima. En
términos matemáticos la evolución lleva a uno de los varios óptimos locales que pueden existir. Existen múltiples
soluciones que pueden ajustarse más o menos adecuadamente a un problema. La que escoge cada organización
depende de cómo se ha iniciado el camino evolutivo. Así, no hay una única manera de gestionar una organización.
Y nadie tiene la verdad absoluta.
2.- La creación de conocimiento es, como la evolución, un proceso gradual. El éxito de la evolución está en
mantener las antiguas soluciones que continúan funcionando y cambiar las que ya no lo hacen. Tan poco sentido
tiene en una organización rechazar todo cambio, como hacerlo todo de manera diferente a los demás “porque sí”.
Si las soluciones adoptadas por nuestra organización en el pasado o actualmente por nuestros competidores
funcionan, no hay razón para cambiarlas: el mecanismo de la evolución las mantiene.
3.- En un entorno cada vez más cambiante como el actual, la adaptación debe ser mucho más rápida. Por una
parte, la selección de las mejores alternativas debe realizarse en menos tiempo. De ahí que sea necesario que el poder
de decisión se sitúe lo más cerca posible de los problemas reales. Por otra parte, debe haber un mayor grado de
“variación ciega”. Para ello, es básico que fomentemos la generación de gran número de ideas por parte de gran
número de personas. Además, es importante que esas personas aporten una gran diversidad de criterios y opiniones
y que haya discusión. Ya no sirven las organizaciones jerárquicas donde sólo piensan unos pocos. Además, hay que
conseguir concebir el error como una oportunidad de aprender y premiar el riesgo razonable en lugar de penalizar
los fallos. Por último, es importante que los integrantes de la organización “oxigenen” periódicamente su mente
para poder aportar variaciones originales derivadas de ver los problemas desde un punto de vista distinto.
Para esto último, no se me ocurre cosa mejor que unas buenas vacaciones. Os deseo a todos un feliz verano y
unas fantásticas vacaciones si tenéis la suerte de hacerlas pronto. Por mi parte, espero volver en septiembre
produciendo más “variación ciega”. La “retención selectiva” será, como siempre, cosa vuestra.
Agustí Canals
Know-org
33
26. Ordenadores cuánticos
Aunque pueda parecer un tema sumamente técnico, la posibilidad de construir ordenadores cuánticos puede tener
interesantes implicaciones, tanto prácticas como conceptuales.
(Tiempo estimado de lectura: 3 minutos)
Además de su función principal, que es descansar, las vacaciones dan la posibilidad de profundizar en temas
que la presión del día a día nos obliga a ir dejando de lado. Este verano he podido dedicar unos días a leer sobre la
cada vez más cercana posibilidad de construir ordenadores basados en los principios de la mecánica cuántica y
sobre la teoría cuántica de la información.
Despertó mi interés sobre el tema un estimulante libro de divulgación del físico David Deutsch titulado The
Fabric of Reality (http://www.amazon.com/exec/obidos/ASIN/014027541X/infonomia). Entre otros interesantes
aspectos de la ciencia moderna, como la posibilidad de la existencia de universos paralelos, la realidad virtual o las
más sorprendentes implicaciones de la idea de la evolución biológica en nuestra concepción del mundo, Deutsch
nos presenta los últimos avances en su especialidad profesional, la computación cuántica. Puede encontrarse
abundante información sobre el tema en la página del Centre for Quantum Computation (http://www.qubit.org).
Para quien quiera ir un poco más allá -y tenga un mínimo conocimiento de física cuántica- me permito recomendar
el excelente texto Quantum Computation and Quantum Information, de Michael A. Nielsen y Isaac L. Chuang
(http://www.amazon.com/exec/obidos/ASIN/0521635039/infonomia).
De hecho, podemos considerar que todos los ordenadores actuales son, en realidad, cuánticos. El
funcionamiento de los chips que tienen en su corazón se basa en las propiedades cuánticas de la materia. Sin
embargo, su diseño sigue los conceptos “clásicos” formulados por Alan Turing y John von Neumann. Cuando
utilizamos el término “ordenador cuántico” nos referimos a aquél que utiliza, como unidad de computación,
estados cuánticos (el más común de ellos llamado “quantum bit” o “qubit”) en lugar de los “clásicos” bits y circuitos
lógicos capaces de operar con esos estados. Es importante señalar que no se trata de una simple mejora tecnológica
como un nuevo modelo de procesador o un aumento en la velocidad de ejecución de las instrucciones: la
computación cuántica constituye un salto cualitativo en el mundo de la informática.
Aunque es un campo en el que se está avanzando muy rápidamente, aún no se ha conseguido construir
ordenadores cuánticos que puedan ser utilizados en lugar de los actuales. Sin embargo, sí se conocen algunas de las
posibilidades que pueden llegar a tener. La clave de los ordenadores cuánticos es que la utilización de estados
cuánticos permitiría, además de simular cualquier ordenador clásico, la utilización de nuevos algoritmos de gran
potencia.
Uno de estos algoritmos da la posibilidad de resolver, en un tiempo aceptable, un problema matemático que
está fuera del alcance de los ordenadores clásicos: la factorización (encontrar los números primos que multiplicados
nos dan un número determinado). Las implicaciones de resolver este problema son importantísimas, pues en esta
imposibilidad de la computación clásica se basa uno de los sistemas de cifrado más utilizados en Internet: el RSA
(http://www.rsa.com). Un ordenador cuántico permitiría fácilmente vulnerar este sistema de protección.
Afortunadamente, la utilización de ordenadores cuánticos permitiría también el uso de sistemas de protección
prácticamente infalibles.
Otro algoritmo muy interesante permitiría, además de resolver algunos complejos problemas matemáticos,
aumentar de manera espectacular la potencia de búsqueda en bases de datos no estructuradas. Podemos imaginar
fácilmente las aplicaciones que esa tecnología tendría en la búsqueda de información en Internet y en los sistemas
de gestión del conocimiento.
Pero el estudio de la computación cuántica ha generado también nuevos conceptos que afectan de manera
importante a la idea que tenemos del fenómeno de la información, dando lugar, entre otros desarrollos, a la teoría
cuántica de la información. Quizás otro día hablemos de eso.
Agustí Canals
Know-org
34
27. Gestión del conocimiento para el terror
Los trágicos hechos de Nueva York y Washington constituyen un caso de estudio para la gestión del
conocimiento.
(Tiempo estimado de lectura: 2 minutos)
En estos días posteriores al 11 de septiembre de 2001, llenos de sensaciones intensas y confusas, es casi
imposible evitar que, al pensar en cualquier cosa, nuestra mente la relacione con los terribles hechos de los Estados
Unidos y con las quizá aún más terribles consecuencias. He decidido que en este artículo no voy ni siquiera a
intentarlo.
Es imposible, al menos para mí, encontrar alguna explicación racional a los atentados. Sin embargo, es
interesante ver cómo elementos muy propios de la gestión del conocimiento han jugado un papel importante en la
tragedia.
Por una parte, los medios de comunicación parecen coincidir en que se han cometido errores importantes en
los servicios de inteligencia y de seguridad de los países occidentales. Veamos algunos de ellos. Muchos expertos
señalan que una de las causas de que no se hayan podido prever los atentados es la progresiva sustitución en los
servicios de inteligencia de personas por elementos tecnológicos. Como en muchos otros casos, eso parece haber
llevado a pérdidas irreparables en conocimiento tácito que se han demostrado determinantes. Además, como
ocurre en muchas organizaciones con los distintos departamentos, parece que es muy difícil conseguir que las
diferentes agencias de seguridad e inteligencia de los mismos Estados Unidos compartan la información de la que
disponen. Probablemente tienen muy claro—es su negocio—que el conocimiento es poder, pero el precio por no
compartirlo se me antoja demasiado alto. Esta situación aún se agrava entre los servicios secretos de los distintos
estados, aunque sean aliados.
Por otra parte, los terroristas han sabido, tristemente, usar los medios más eficaces para la transmisión de
información y la adquisición de conocimiento. Parece claro que han utilizado Internet para comunicarse y que
aprendieron a pilotar gracias al uso de simuladores, que permiten la transmisión de conocimiento explícito, pero
también tácito, de manera eficiente, sin peligro y a bajo precio. Sin embargo, la más eficaz -y terrible- gestión del
conocimiento se manifiesta en otro aspecto. Si consideramos, como vimos en el número 2 de Know-Org , que
conocimiento es todo aquello que nos permite interpretar nuestro entorno y actuar en consecuencia, las creencias
religiosas forman parte también de nuestro conocimiento. Y parece que unos pocos, con oscuros intereses, están
gestionando demasiado bien ese conocimiento.
Agustí Canals
Know-org
35
28. Prácticas efectivas de gestión del conocimiento
Un estudio patrocinado por McKinsey & Co. realizado en 40 grandes empresas industriales de Europa, Estados
Unidos y Japón permite identificar las prácticas de gestión del conocimiento más efectivas.
(Tiempo estimado de lectura: 3 minutos)
Actualmente el gestor del conocimiento tiene a su disposición una gran cantidad de artículos, libros e informes
donde se proponen un sin fin de técnicas y acciones posibles en forma de “best practices” o “case studies” y múltiples
productos de software especializado para gestionar aspectos concretos del conocimiento organizacional. Sin
embargo, no puede hacerse todo al mismo tiempo: hay que escoger, atendiendo siempre a las características propias
de la empresa, las actuaciones que puedan dar un mejor resultado. Y hay pocos datos empíricos para fundamentar
esa decisión.
El libro Knowledge Unplugged (http://www.amazon.com/exec/obidos/ASIN/0333963768/infonomia) puede
ser una importante ayuda en ese sentido. En él se presentan los resultados de un estudio conjunto realizado por
investigadores de la Darmstad University of Technology y consultores de la prestigiosa firma McKinsey & Co. que
lleva por título “The McKinsey & Company Global Survey on Knowledge Management”. El estudio pretende, como
dicen sus autores, contribuir a “clarificar el tema y transferir herramientas analíticas probadas al campo de la
gestión del conocimiento”. El objetivo es identificar cuáles son las prácticas de gestión del conocimiento más
efectivas basándose en el análisis de los resultados de múltiples encuestas y entrevistas realizadas en 40 grandes
empresas industriales de Europa, los Estados Unidos y Japón.
La dificultad principal para conocer la efectividad de una práctica concreta es que el conocimiento no es un
factor que influya de una manera clara en los resultados financieros de la empresa. Su influencia es muy grande,
pero se realiza a menudo de manera indirecta: un producto con buen diseño se vende más, un servicio técnico eficaz
fideliza a los clientes, un vendedor que conoce las necesidades del cliente es más efectivo, etc. Es difícil, entonces,
determinar cuál es el efecto de una práctica de gestión del conocimiento en términos económicos. El informe de
McKinsey propone el sistema siguiente. Después de identificar 139 técnicas y métodos de gestión del conocimiento,
se ve cuáles de ellos se aplican en cada una de las organizaciones estudiadas. Por otra parte, se hace una división de
las empresas entre las “excelentes”, las “buenas” y las “mediocres” atendiendo a criterios como la rentabilidad, el
tiempo medio de desarrollo de productos, el ritmo de innovación, el crecimiento de las ventas, el crecimiento de los
beneficios, etc. Entonces, identificando cuáles son las prácticas que utilizan muchas de las empresas “excelentes”
pero que son muy poco utilizadas por las “mediocres”, se obtienen los mejores candidatos a buenas prácticas que
traducen el uso del conocimiento en valor para la organización.
Es imposible resumir todo el estudio en este artículo, pero citaré de manera muy breve algunas de las prácticas
concretas que quedan en mejor lugar, cada una relacionada con un aspecto del conocimiento:
1) Fomentar la colaboración interdisciplinaria entre los departamentos de desarrollo de productos y
aprovisionamiento para evitar la subjetividad y compartir el conocimiento.
2) Involucrar al personal de marketing y ventas en los primeros estadios del desarrollo de productos para
transferir conocimiento útil.
3) Habilitar espacios de trabajo especiales para los proveedores en la sección de desarrollo de producto para
que capten las necesidades de una manera tácita.
4) Garantizar un fácil acceso a los datos de aprovisionamiento para potenciar su utiización a múltiples niveles.
5) Formación continua en relación a estándares y reglas de diseño para evitar la obsolescencia.
6) Uso sistemático de técnicas de creatividad en la mejora de procesos para fomentar la aparición de soluciones
imaginativas.
Probablemente esas prácticas no se puedan aplicar a nuestra propia organización, pero tanto el método
utilizado como los resultados obtenidos son muy interesantes.
Agustí Canals
Know-org
36
29. Complejidad, organizaciones y conocimiento
Las ciencias de la complejidad aplicadas a sistemas sociales como las organizaciones nos muestran nuevas y
sugerentes facetas del conocimiento como una estructura emergente.
(Tiempo estimado de lectura: 3 minutos)
En el último número de Ke! (http://www.infonomia.com/extranet/index.asp?idm=1&idrev=1&num=603),
Alfons Cornella comenta la tesis de Bonabeu y Meyer según la cual las empresas pueden mejorar sus procesos
aprendiendo del funcionamiento de otros sistemas complejos como los hormigueros. Siguiendo un reducido
número de reglas sencillas a nivel individual, los integrantes de un sistema pueden hacer que se genere un orden
complejo a nivel general.
Este fenómeno de “emergencia” de estructuras ordenadas a partir de la suma de comportamientos individuales
aparentemente caóticos se estudia en lo que se han dado en llamar Ciencias de la Complejidad. Los primeros
sistemas complejos estudiados pertenecen al reino de las ciencias naturales. No en vano el primero en teorizar sobre
estos sistemas fue el premio Nobel de química Ilya Prigogine y una de las obras más citadas e interesantes en este
campo es el libro At Home in the Universe (http://www.amazon.com/exec/obidos/ASIN/0195095995/infonomia),
del profesor del prestigioso Santa Fe Institute (http://www.santafe.edu/) Stuart Kauffman, que versa sobre cómo
fenómenos de orden emergente pueden haber intervenido en el surgimiento de la vida en la Tierra.
Sin embargo, cada vez más se está trabajando en la línea de aplicar la teoría de la complejidad a sistemas sociales
y, entre ellos, a las organizaciones. El libro Harnessing Complexity (http://www.amazon.com/exec/obidos/ASIN/
0684867176/infonomia), de Axelrod y Cohen, analiza de una manera muy asequible las interesantes implicaciones
derivadas de considerar la organización como un sistema complejo. Para los autores, este punto de vista será cada
vez más indispensable a medida que el avance tecnológico permita que vayan surgiendo más y más organizaciones
en red. El desarrollo del sistema operativo Linux o la misma Internet son ejemplos de la emergencia de un cierto
orden a partir del comportamiento libre de los individuos sin ninguna autoridad central.
Sin embargo, la equiparación de los sistemas naturales a los sistemas sociales humanos no es inmediata. Como
dice Alfons, las hormigas no tienen libre albedrío. Determinar si los humanos lo tenemos o no es un problema
filosófico en el que no voy a entrar. Lo que sí es cierto es que, al contrario que las hormigas, los humanos tenemos
la capacidad de reconocer, razonar y reaccionar ante las estructuras emergentes. Y nuestro comportamiento
derivado de esa capacidad tiene como consecuencia la creación de estructuras emergentes de segundo orden, como
los gobiernos, las culturas o las empresas. De ahí que sea mucho más difícil encontrar las reglas sencillas
individuales que provocan la emergencia de un determinado orden en una organización que en un hormiguero.
Esta idea puede aplicarse también al conocimiento organizacional. Recientemente he tenido la oportunidad de
asistir a un workshop sobre Complejidad y Organización celebrado en Bruselas, en el cual Peter Allen, antiguo
discípulo de Ilya Prigogine ahora en el Complex Systems Management Centre de la Cranfield School of
Management (http://www.som.cranfield.ac.uk/som/complex/), presentaba una idea interesantísima para todo
aquel que pretenda gestionar el conocimiento. Para Allen, el conocimiento es una de esas estructuras de segundo
orden. Por tanto, el hecho de saber lo que sabemos ya modifica nuestro conocimiento. Es decir, difundiendo el
conocimiento o actuando en base a él, la situación y el mismo conocimiento cambian. Así—dice Allen—si
queremos que nuestra organización sobreviva no sólo debemos mejorar la manera en que hace lo que hace, sino
que también debemos mejorar la manera en que aprende cómo mejorar lo que hace.
Agustí Canals
Know-org
37
30. El premio Nobel de Infonomía
Los tres galardonados con el último premio Nobel de economía tienen en común que sus trabajos tratan sobre la
información en los procesos económicos.
(Tiempo estimado de lectura: 3 minutos)
No es que la Real Academia Sueca de las Ciencias haya decidido instaurar un nuevo premio Nobel dedicado a
los infonomistas. De momento, al menos. Sin embargo, atendiendo a los galardonados el pasado mes de octubre
con el premio Nobel de economía bien pudiera parecerlo.
El pasado día 10 de octubre se anunciaba la concesión del premio a los economistas norteamericanos George
A. Akerlof, A. Michael Spence y Joseph Stiglitz “por sus análisis sobre mercados con información asimétrica”. Es
decir, por estudiar la función de la información en los mecanismos que rigen la economía. Es evidente, pues, que
los galardonados pueden considerarse infonomistas de pleno derecho (http://www.infonomia.com/infonomia/
infonomia.asp) con merecimientos para estar en la “Hall of fame” de la Infonomía (http://www.infonomia.com/
grandes).
Esta reciente circunstancia me ha llevado a reflexionar sobre la gran importancia de la información en todos
los procesos económicos. Los estudios de los premiados nos lo muestran claramente. George Akerlof, por ejemplo,
demostró que cuando en un mercado los vendedores tienen más información sobre el producto que los
compradores—como en el caso de los coches usados—se produce un fenómeno de “selección adversa” y sólo se
intercambian los productos de baja calidad. La razón es que los compradores no se arriesgan a pagar el precio de
un producto de calidad cuando no pueden estar seguros de si el que se les ofrece lo es. Michael Spence describió el
mecanismo de “señalización” según el cual las titulaciones académicas permiten a los empleadores conocer a priori,
al menos en parte, las competencias de sus prospectivos empleados. Así, cursar unos estudios no sólo interesa por
el conocimiento que se adquiere, sino también para distinguirse de quienes no tienen las capacidades o aptitudes
para conseguir la titulación. Joseph Stiglitz contribuyó a la explicación de fenómenos como la concesión de créditos
o el paro donde se producen asimetrías de información.
Lo curioso del caso es que estos trabajos son relativamente recientes en la economía. Se desarrollaron en los
años 70 para subsanar el escaso tratamiento de los efectos de los problemas de información en la economía
neoclásica tradicional. En efecto, a pesar de su evidente importancia, los economistas han desarrollado poco el papel
de la información en la ciencia económica.
En los últimos tiempos y debido en parte a la importancia del conocimiento y la información en la nueva
economía se ha despertado un renovado interés de los economistas en estos fenómenos. Una muy interesante
muestra de ello es el libro Information Rules (http://www.amazon.com/exec/obidos/ASIN/087584863X/
infonomia), uno de cuyos autores es el conocido economista Hal Varian.
Sin embargo, creo que será necesaria en el futuro una aún mejor comprensión de la naturaleza real de la
información. Por ejemplo, cuando en economía se habla de asimetrías de información, ¿se está hablando realmente
de información o se está hablando de conocimiento? ¿O quizás de simples datos? ¿Qué implicaciones tiene esa
distinción? Cuestiones como éstas sugieren que es necesaria una formulación clara de todos esos conceptos que sea
aplicable tanto a la gestión del conocimiento como a la ciencia económica y a otras muchas disciplinas en las que
la información y el conocimiento juegan un papel importante.
Quien lo logre tendrá asegurado el futuro premio Nobel de Infonomía.
Agustí Canals
Know-org
38
31. El teorema del elefante
En gestión del conocimiento no podemos pretender abarcar todo el conocimiento de la organización desde un
inicio. Debemos ir paso a paso y aplicar las técnicas adecuadas para cada tipo de conocimiento.
(Tiempo estimado de lectura: 2 minutos)
Un amigo con quien he tenido ocasión de trabajar, cuando se enfrenta a una tarea compleja o que requiere gran
cantidad de trabajo aplica lo que podría llamarse “el teorema del elefante”. Mi amigo pregunta: “¿qué es lo primero
que hay que hacer para poder comerse un elefante entero?”. Cuando su interlocutor pone cara de no saber qué
relación tienen los elefantes con el problema en cuestión, él responde: “¡Pues cortarlo en bistecs!”. La idea es que
para completar una tarea compleja que nos parece ingente hay que identificar las múltiples acciones más sencillas
que habrá que realizar para cumplirla y empezar a tratarlas una por una. No podemos comernos un elefante de
golpe, pero lo acabaremos haciendo si cada día nos comemos un bistec.
En los proyectos de gestión del conocimiento pasa algo parecido. En una organización hay una gran cantidad
de conocimiento que se encuentra repartido entre una gran cantidad de personas, incorporado a múltiples procesos
o representado en una gran diversidad de soportes. Las técnicas de gestión del conocimiento son múltiples y
variadas. Cuál de ellas es la más adecuada depende en cada ocasión del tipo de conocimiento que estemos tratando
y de quién lo posea o cómo esté representado. Así, no podemos plantearnos gestionar todo el conocimiento de una
organización de la noche a la mañana. Lo más sensato es empezar por una pequeña parte de ese conocimiento y
aplicar la técnica más adecuada. Progresivamente podremos ir aumentando nuestro ámbito de actuación e
incorporando nuevas técnicas.
Esta actitud es especialmente aconsejable al menos por dos motivos. Primero, porque los recursos disponibles
para el proyecto, tanto en dinero como en personas o tiempo, son limitados. Si los dispersamos en múltiples
subproyectos diferentes, cada uno con pocos recursos, es probable que ninguno de ellos funcione bien. Segundo,
porque concentrarse en un ámbito restringido permite una planificación más detallada, una mejor ejecución y un
mayor control de las acciones realizadas que permiten asegurar mejor los resultados. Y ese es un factor muy
importante. Es básico demostrar que las primeras acciones en un proyecto de gestión del conocimiento tienen un
efecto positivo. Ello sirve para ratificar el apoyo de la dirección y, quizás aún más importante, para demostrar a
todos los miembros de la organización que aquello realmente les sirve para realizar mejor su trabajo. Sólo así
conseguiremos que se sientan partícipes del proyecto y accedan a compartir su conocimiento.
Sería difícil, por ejemplo, organizar al mismo tiempo una comunidad de práctica para incentivar la creación
de conocimiento, una base de datos de artículos relevantes, una feria de conocimiento para fomentar la
compartición y una base de datos en la que figuren los distintos expertos de la organización.
Aunque a veces sí es posible matar dos pájaros de un tiro. Algunos productos de gestión del conocimiento de
nueva generación permiten combinar la gestión de más de un tipo de conocimiento. Por ejemplo, el producto
NewKnow (http://www.newknow.com) utiliza por una parte una base de datos de documentos (conocimiento
representado) y por otra la información que puede obtenerse analizando el uso que los distintos miembros de la
organización hacen de los documentos (un conocimiento del que probablemente nadie sea consciente) y su opinión
sobre ellos (derivada del conocimiento tácito de la persona).
Quizá los domingos podamos comernos dos bistecs.
Agustí Canals
Know-org
39
32. Aprender a nadar en seco
En el campo de la gestión del conocimiento coexisten dos versiones diferentes del concepto de conocimiento tácito,
aparentemente contrapuestas.
(Tiempo estimado de lectura: 2 minutos)
Cuentan que el matemático y físico teórico polaco Theodor Kaluza (http://www-groups.dcs.st-andrews.ac.uk/
~history/Mathematicians/Kaluza.html) se propuso un día demostrar el valor del conocimiento teórico en la vida
diaria. Decidió que a sus treinta años ya era hora de aprender a nadar, pero lo haría a su manera. Después de leer
concienzudamente un libro sobre natación, echó a nadar correctamente al primer intento.
Pero, ¿cómo? ¿No poníamos siempre como ejemplo de conocimiento tácito, que no es posible explicitar, las
acciones de nadar o montar en bicicleta? Independientemente de la veracidad o no de la historia, recordarla me hizo
reflexionar un poco sobre el concepto de conocimiento tácito que se utiliza tan profusamente en gestión del
conocimiento.
Curiosamente, conviven en cuanto a ese concepto dos definiciones aparentemente contrapuestas. Una, la
original, propuesta por el filósofo Michael Polanyi, según la cual el conocimiento tácito es aquél que no se puede
explicitar. Parafraseando al químico y filósofo: “podemos saber más de lo que podemos explicar”. La segunda idea
reza que el conocimiento tácito es aquél que aún no ha sido explicitado. Esta concepción, popularizada entre otros
por Nonaka y Takeuchi (que, sin embargo, dicen haber tomado de Polanyi el concepto de conocimiento tácito),
hace posible pensar en procesos de conversión entre conocimiento tácito y explícito.
La primera definición es una excelente excusa para aquellos que desprecian la posibilidad de representar de
algún modo el conocimiento de las personas o las organizaciones utilizando las tecnologías, y la segunda para
aquellos que propugnan que la gestión del conocimiento consiste en explicitar todo el conocimiento en forma de
bases de datos o sistemas expertos.
A mi modo de ver, las dos actitudes extremas son perjudiciales. El conocimiento es aquello que refleja nuestra
visión del mundo y nos permite, por tanto, actuar. Cuanto mejor sea el conocimiento, más efectiva será nuestra
acción. Por tanto, el objetivo ideal de la gestión del conocimiento debe ser que cada miembro de la organización
posea, en el momento en que lo necesite, el conocimiento adecuado para llevar a cabo su función.
Así, cuando sea posible que el conocimiento se explicite de alguna manera, debemos fomentarlo, ya que será
más fácil que se difunda. Eso sí, con el peligro de que se difunda demasiado y, por ejemplo, pase a la competencia.
Por otra parte, cuando el conocimiento es difícil de explicitar debemos recurrir a otros mecanismos de transmisión,
que son más costosos en tiempo y recursos, pero que probablemente son más efectivos y seguros.
Pero, volviendo al concepto de conocimiento tácito, aún no hemos decidido con cuál de las dos definiciones
debemos quedarnos. A mi modo de ver, las dos visiones son, en cierto modo, compatibles. En un mundo ideal,
donde los recursos y las capacidades fueran ilimitados, probablemente sería posible explicitar todo el conocimiento
y no habría conocimiento tácito en el sentido de Polanyi. Pero en el mundo real, con recursos escasos y capacidades
limitadas, la cosa ya no está tan clara.
Explicar esta idea, sin embargo, requerirá otro Know-org y un poco más de teoría. Pero, como diría nuestro
amigo Kaluza, no hay nada tan práctico como una buena teoría.
Agustí Canals
Know-org
40
33. Límites en la articulación explícita del conocimiento
Debido a que en el mundo real los recursos son escasos y nuestras capacidades limitadas, no siempre es posible
articular el conocimiento tácito de manera explícita para poder transferirlo.
(Tiempo estimado de lectura: 2 minutos)
En el artículo anterior de Know-org decíamos que en un mundo ideal de recursos ilimitados y capacidades
infinitas probablemente sería posible explicitar cualquier tipo de conocimiento. Sin embargo, en el mundo real nos
encontramos con una serie de limitaciones que hacen que ello sea imposible; o que sea más efectivo transferir el
conocimiento de una manera que no requiera que éste se explicite en su totalidad.
En 1982 (mucho antes de la aparición de la moda de la gestión del conocimiento), los economistas Richard
Nelson y Sidney Winter proponen en su libro An Evolutionary Theory of Economic Change
(http://www.amazon.com/exec/obidos/ASIN/0674272285/infonomia) una interesante alternativa a la teoría
económica ortodoxa basada en el comportamiento totalmente racional de los individuos y dirigido a la
maximización de la utilidad. En ella se da una gran importancia a la forma en que se puede adquirir y transferir el
conocimiento tácito. En uno de los capítulos del libro, Nelson y Winter identifican algunas de las limitaciones que
pueden aparecer a la hora de explicitar el conocimiento.
Primero, los códigos simbólicos (por ejemplo, el lenguaje) que utilizamos para representar el conocimiento—
y que deben ser compartidos si queremos que esa representación pueda ser utilizada para transferir el
conocimiento—tienen ciertas limitaciones. Para poder explicitar algunos tipos de conocimiento nos faltan
palabras, muchas veces no tenemos a nuestra disposición los conceptos necesarios. Es una sensación parecida a la
que tenemos cuando intentamos explicar algo en un idioma que no dominamos y en el cual nos falta vocabulario.
Segundo, hay un límite físico en la capacidad de transmisión de información a través de la comunicación
simbólica, en la “anchura de banda”. A veces, para transferir un cierto conocimiento, es necesario transmitir mucha
más información por unidad de tiempo. Entonces hay que recurrir a la transferencia de conocimiento tácito a través
del contacto directo, en el cual hay una parte importante de la comunicación que no es explícita y que se beneficia,
por ejemplo, de la comunicación no verbal o de un contexto compartido.
Tercero, las limitadas capacidades del cerebro humano hacen que sea imposible articular el “conocimiento
completo” sobre algo de una manera coherente, especialmente cuando hay que dar cuenta simultáneamente del
todo y de las partes. Ello es debido probablemente—según Nelson y Winter—a varios factores relacionados entre
sí como el carácter lineal de la comunicación basada en el lenguaje, el carácter “serial” del “procesador central” del
cerebro humano y la relativamente limitada capacidad de la memoria reciente humana.
Y por último, pero no menos importante, especialmente cuando tratamos del conocimiento en las
organizaciones, hay que tener en cuenta la relación coste-beneficio de articular el conocimiento en forma explícita.
La cuestión relevante en muchas ocasiones no es si un determinado conocimiento es en principio explicitable, sino
si los costes derivados de esa explicitación serán compensados por los beneficios obtenidos. Si no, el conocimiento
permanecerá, en la práctica, como conocimiento tácito. Y habrá que buscar otros sistemas más eficientes si
queremos transferirlo.
Muchas gracias a todos por vuestra fidelidad y apoyo durante todo el año. Feliz Navidad y hasta el 2002
Agustí Canals
Know-org
41
34. Compartir conocimiento, ¿hasta dónde?
La idea de compartir el conocimiento en las organizaciones contrasta con el afán de protegerlo de cara al exterior,
lo que provoca dilemas difíciles de resolver.
(Tiempo estimado de lectura: 2 minutos)
En muchos libros y artículos sobre gestión del conocimiento se hace gran hincapié en fomentar la
compartición de conocimiento. Se acepta como algo muy deseable y que hay que fomentar a toda costa. Pero, ¿hasta
dónde hay que compartir el conocimiento? ¿con quién? Y, quizás aún más importante, ¿quién decide todo eso?
He estado leyendo estos días el interesante libro The Code Book de Simon Singh (http://www.amazon.com/
exec/obidos/ASIN/0385495323/infonomia) sobre la historia de los sistemas y tecnologías de cifrado de mensajes a
lo largo de la historia. En él se relata la incesante lucha entre los que a lo largo de los siglos han ido inventando
sistemas para proteger el contenido de los mensajes y los que se han dedicado a idear métodos para burlar esa
protección. Parece ser que en este momento ganan la batalla momentáneamente los del primer grupo gracias a
tecnologías basadas en el algoritmo RSA (http://www.rsasecurity.com/rsalabs/rsa_algorithm/index.html) pero que
en el futuro lo que puede decantar la balanza es el desarrollo de nuevos y sorprendentes sistemas basados en los
principios de la mecánica cuántica como los ordenadores cuánticos ( para más información consulta el artículo 26
de este documento) o la criptografía cuántica.
Sin embargo, independientemente del resultado final de la lucha, lo que llama la atención es la gran cantidad
de medios, tiempo e inteligencia que a lo largo de la historia se ha dedicado, por un lado, a intentar evitar compartir
el conocimiento y, por el otro, a intentar saber lo que otros no quieren compartir.
Y eso se hace más patente que nunca en un entorno cada vez más basado en las redes de comunicación. Tanto
los servicios de inteligencia de los estados como las empresas dedican gran cantidad de recursos a la protección del
conocimiento propio y el intento de apropiación del ajeno. Las últimas técnicas de espionaje industrial que se
aprovechan de las cada vez más populares redes de área local inalámbricas son una prueba de ello (“The passers-by
who are stealing your secrets”, Financial Times, 3/12/2001).
Todo eso sugiere que tanto los estados como las organizaciones o los individuos tienen importantes incentivos
para ser muy cuidadosos a la hora de compartir conocimiento. ¿Cómo casa esto con el “mantra” de compartir el
conocimiento?
Podría parecer que la respuesta a esa pregunta sea evidente para el caso de las empresas: compartir sólo dentro
de la organización. Pero, por desgracia (…o no) las cosas no son tan sencillas.
Resulta que los límites de una organización cada vez son menos claros. En lugar de una frontera nítida tenemos
algo parecido a un campo de fuerza que va decreciendo de manera más o menos continua a medida que nos vamos
alejando del núcleo central de la organización y en el cual encontramos, con un mayor o menor grado de
implicación: los empleados fijos, los empleados temporales, las empresas subcontratadas, los aliados estratégicos,
los clientes, los proveedores, los consultores, los intermediarios e incluso los competidores con los cuales se pueden
establecer colaboraciones puntuales. ¿Hasta dónde hay que compartir el conocimiento?
Además, en el caso que seamos capaces de identificar ese límite, ¿es posible mantenerlo? Como apunta Max
Boisot, una vez los activos de conocimiento llegan a un grado de codificación y abstracción adecuados para su
difusión interna, es muy difícil detener su difusión al exterior.
Por otra parte, si decimos que el conocimiento es de las personas y es a ellas a quienes pedimos que lo
compartan, ¿nos harán caso si no les damos la posibilidad de decidir con quién se va a compartir “su”
conocimiento?
Agustí Canals
Know-org
42
35. Paisajes estratégicos
Puede encontrarse un cierto paralelismo entre el proceso de creación de conocimiento que lleva a la gestación de
una estrategia y la evolución de una especie en busca de la mejor adaptación a su ecosistema.
(Tiempo estimado de lectura: 3 minutos)
La formulación de la estrategia puede verse como uno de los procesos de creación de conocimiento más
importantes en una organización. La estrategia determina para una empresa su manera de interpretar el entorno y
de actuar con respecto a éste. Ya sea de manera formalizada, como consecuencia de un proceso de planificación
estratégica, o a través de procedimientos más o menos intuitivos basados en el método de prueba y error, la
estrategia acaba plasmándose en un conjunto de rutinas, prácticas y maneras de actuar. Éstas configuran una parte
importante del conocimiento de la organización y constituyen lo que podríamos llamar su ADN.
Este paralelismo con el genoma de un ser vivo me sugiere que podríamos pensar en el desarrollo de la estrategia
como un proceso similar al que sigue una especie que va evolucionando dentro de un ecosistema para conseguir el
máximo nivel de adaptación a su entorno. Evidentemente, éste sería un proceso “de abajo a arriba” muy diferente a
los clásicos procesos de planificación estratégica “de arriba abajo”.
En el libro At Home in the Universe (http://www.amazon.com/exec/obidos/ASIN/0195095995/infonomia),
que ya comentamos brevemente en el número 29 de Know-org , Stuart Kauffman presenta lo que él llama el modelo
de paisaje NK para explicar la evolución de las especies dentro de su ecosistema. Simplificando mucho, Kauffman
viene a representar las infinitas posibilidades diferentes para el ADN de los individuos de una especie por medio de
un paisaje formado por montañas y valles. Cada lugar en el paisaje corresponde a una determinada posibilidad para
el genoma. Cuanto más elevado sea el lugar en el paisaje, mejor es la adaptación al entorno. Por tanto, para intentar
conseguir el máximo nivel de adaptación, las especies van modificando su ADN mediante mecanismos como las
mutaciones para llegar a las cotas más elevadas del imaginario paisaje.
La gracia de los sistemas complejos es que lo que se descubre para unos puede ser aprovechado para otros. El
modelo NK lleva a interesantes conclusiones que quizás pueden ser interesantes para los estrategas empresariales.
Veamos algunas.
Es imposible saber si la estrategia que utilizamos es la mejor posible. Podemos saber que estamos en la cima de
una montaña, pero desconocemos si hay otra montaña más alta.
En la definición de estrategias hay que utilizar métodos diferentes según la situación. En un paisaje con una
sola gran montaña (tipo Fujiyama) conseguiremos subir a la cima a base de pequeñas mutaciones paulatinas que
nos hagan subir la ladera poco a poco. En cambio, en un paisaje con múltiples picos (tipo Himalaya) sólo tendremos
posibilidades de encontrar uno de los picos más altos mediante grandes mutaciones que nos hagan “saltar” de una
montaña a otra. El primer caso puede asemejarse al de un sector industrial maduro donde las mejoras son
incrementales y el segundo a un sector emergente donde aparecen soluciones radicalmente diferentes para los
mismos problemas hasta que una de ellas acaba dominando.
Las estrategias en un momento determinado son consecuencia de la historia. En algunos ecosistemas que se
han estudiado, es imposible entender cómo se ha llegado a las interrelaciones existentes entre las distintas especies
si no se tienen en cuenta otras especies ya extinguidas que habían formado parte de ellos en el pasado. ¿Cómo se
entiende, si no, que el estándar actual de video sea el técnicamente discreto VHS?
Las especies pueden evolucionar en su paisaje, pero éste ve al mismo tiempo modificada su orografía por la
evolución de las demás especies del ecosistema. Una estrategia que ahora es adecuada, que está dentro del paisaje
en lo alto de una montaña, puede encontrarse de repente en lo más hondo de un valle a causa de cambios en las
estrategias de proveedores, clientes o competidores. Por tanto, nuestro sino es estar siempre dispuestos a ir
recorriendo el paisaje en busca de una estrategia óptima que nunca encontraremos.
Agustí Canals
Know-org
43
36. k-Life
El triunfo final de la gestión del conocimiento se producirá cuando esté tan interiorizada que no haga falta ni
mencionarla.
(Tiempo estimado de lectura: 2 minutos)
Esta semana tuve ocasión de asistir a una charla que dio para los investigadores del IN3 (Internet
Interdisciplinary Institute) de la Universitat Oberta de Catalunya George Metakides, el Director de Tecnologías
Básicas e Infraestructuras de la D.G. Sociedad de la Información de la Comisión Europea. Metakides destacó el
concepto de “ambient intelligence” como la idea dominante en estos momentos en los círculos tecnológicos de la
Comisión Europea. Es decir, la posibilidad que proporcionan las nuevas tecnologías que se están desarrollando
actualmente de tener redes distribuidas de aparatos inteligentes que nos proporcionen información, comunicación
y entretenimiento y que, además, se adapten a nuestras necesidades e incluso se anticipen a ellas
(http://www.research.philips.com/generalinfo/special/ambintel/).
Metakides situaba en este escenario, entre las tecnologías “disruptivas” de los próximos años, además de la
inteligencia artificial y la teoría de los sistemas complejos, todas las que se utilicen para la gestión del conocimiento.
Pero, además, el alto cargo de la CE consideraba tanto o más importantes las “habilidades de la sociedad del
conocimiento”, como por ejemplo lo que él llamaba “las tres S”—simulación, selección y compartición
(“sharing”)—o bien la capacidad de comprender sistemas complejos desde un punto de vista multidisciplinar.
Probablemente la potenciación de esas “habilidades del conocimiento” a nivel general sea la contribución más
importante de la actual moda de la gestión del conocimiento. Actualmente damos mucha importancia a las
tecnologías y sistemas que nos ayudan a gestionar el conocimiento en un entorno concreto. Muchas organizaciones
se plantean iniciar, si no lo han hecho ya, proyectos de gestión del conocimiento. Indudablemente, eso es
importante. Sin embargo, el verdadero triunfo de la gestión del conocimiento se dará cuando la preocupación por
ese recurso impregne todos los departamentos de una empresa, cuando a los estudiantes de MBA se les hable de
conocimiento en la mayoría de sus clases, cuando no se conciba una planificación estratégica que no tenga en
cuenta la manera de crear, transferir y utilizar el conocimiento. Entonces habremos entrado de lleno en la economía
del conocimiento.
Pronosticaba Metakides que a mediados de esta década empezaría a “caer” el prefijo “e-“ tan profusamente
utilizado hoy en día en términos como “e-Commerce”, “e-Business” o “e-Culture” y que él proponía extender a “eGymnasium”, “e-Theater”, “e-Agora” o incluso... ¡”e-Temple”! En definitiva: “e-Life”. Cuando todo sea “e-algo” no
hará falta poner la “e-“. De manera similar, el triunfo final—y “póstumo”—de la gestión del conocimiento se
producirá cuando ya nadie crea necesario hablar de gestionar el conocimiento porque la idea formará ya parte de
su vida cotidiana.
Agustí Canals
Know-org
44
37. GC en la tercera fase
David Snowden, uno de los gurús más prestigiosos del ámbito, sostiene que hemos entrado en la tercera fase de la
gestión del conocimiento.
(Tiempo estimado de lectura: 2 minutos)
En el Online Information meeting 2001 (http://www.online-information.co.uk/online/), celebrado el pasado
diciembre en Londres, la gestión del conocimiento tuvo un papel muy relevante, tanto en los productos y servicios
expuestos como en el programa de conferencias. Una de las charlas más interesantes llevaba el título de
“Information for Innovation” y fue pronunciada por David Snowden, el director del “Institute for Knowledge
Management” de IBM (http://www-1.ibm.com/services/kcm/kcm_ikm.html) en el Reino Unido. Una de las tesis de
Snowden es que estamos entrando en la tercera fase de la evolución de la gestión del conocimiento.
Durante la primera fase, entre los años 1990 y 1995, el acento estaba en conseguir que la información adecuada
llegase a la persona que la necesitaba en el momento en que debía utilizarla. Privaba, por tanto, una visión basada
mayoritariamente en la gestión de información. Las tecnologías desarrolladas, como el “data warehousing” (DW) o
los “decision support systems” (DSS), tenían como principal objetivo extraer esa información de los datos
almacenados en los cada vez más sofisticados sistemas informáticos.
La segunda fase, según Snowden, se sitúa entre los años 1995 y 2001. En ella tienen una influencia fundamental
las ideas desarrolladas por Ikujiro Nonaka en su libro The Knowledge-Creating Company
(http://www.amazon.com/exec/obidos/ASIN/0195092694/infonomia). La máxima preocupación en este período es
“convertir el conocimiento tácito en explícito”, aunque también empiezan a cobrar importancia nuevos conceptos
más sociológicos como las comunidades de práctica ( información más detallada al respecto en el artículo 11 de este
documento). Durante esta fase se observa entre los especialistas una cierta polarización entre los que sólo conciben
la gestión del conocimiento a través de las tecnologías y los que desprecian las soluciones tecnológicas porque
consideran que todo se basa en las interacciones humanas ( ver artículo 23 de Know-org).
En la actualidad nos encontraríamos ya en el inicio de la tercera fase de la gestión del conocimiento. Los
conceptos fundamentales en este estadio, según Snowden, son los contenidos, las narrativas y el contexto. Las
herramientas necesarias en esta etapa deben contribuir fundamentalmente a la creación de redes que conecten estos
tres elementos. Además, deberemos ser capaces de manejar el aspecto dual del conocimiento (como una “cosa” y
como un “flujo”) al igual que la mecánica cuántica trata los electrones como ondas y como partículas al mismo
tiempo. El principal objetivo debería ser, según él, construir sistemas en los cuales las personas y los ordenadores
tengan una relación simbiótica.
Snowden apuesta por la teoría de los sistemas complejos como paradigma fundamental en esta tercera
generación de la gestión del conocimiento. De hecho, está trabajando actualmente en una prometedora línea de
investigación que tiene como objetivo aplicar las teorías de la complejidad a la gestión del conocimiento y el
aprendizaje en las organizaciones.
Agustí Canals
Know-org
45
38. Interacción social
La importancia de los aspectos de interacción social en la gestión del conocimiento está cada vez más reconocida.
Conceptos como la gestión de narrativas o la gestión del contexto son prueba de ello.
(Tiempo estimado de lectura: 2 minutos)
Según algunos, el principal error en los primeros pasos de la inteligencia artificial fue considerar las personas
como seres aislados, sin tener en cuenta la importancia de la interacción social. En el libro Swarm Intelligence
(http://www.amazon.com/exec/obidos/ASIN/1558605959/infonomia) [no confundir con el libro del mismo título
Swarm Intelligence: From Natural to Artificial Systems, que ya ha sido comentado en Infonomia.com
(http://www.infonomia.com/extranet/index.asp?idm=1&idrev=1&num=603)], James Kennedy y Russell C.
Eberhart proponen la idea que para modelar la inteligencia humana es necesario modelar los individuos en un
contexto social interaccionando entre sí. En la interacción social, dicen, además del intercambio de información, se
produce algo quizás más importante: el intercambio de reglas, pistas y creencias sobre cómo procesar esa
información. Así, concluyen que la inteligencia es algo que sólo aparece en contextos sociales. Probablemente sus
afirmaciones son matizables, pero no cabe duda de que aportan un punto de vista útil e interesante.
De hecho, la preocupación por la función del entorno social se está extendiendo también en el ámbito de la
gestión del conocimiento. Estamos viendo cómo cada vez más se está dando importancia a los procesos sociales que
facilitan la creación y la compartición de conocimiento. Una prueba de ello son las ideas de David Snowden. En el
número anterior de Know-Org decíamos que para Snowden los conceptos fundamentales en la tercera fase de la
GC serían los contenidos, las narrativas y el contexto. No profundizaremos hoy en la gestión de contenidos, pero es
evidente que tanto en el contexto como en las narrativas el aspecto social es clave.
Snowden propone una “gestión de narrativas” a través de unas bases de datos de narrativas que capturen las
historias que las personas se cuentan relacionadas con su trabajo. Para él, esas historias son mucho más útiles como
mecanismo social para transferir conocimiento que las “best practices”: un conocimiento es mucho más valioso
cuando es divulgado antes de que sepamos si ha tenido éxito, ya que para entonces probablemente las circunstancias
que lo hacían valioso ya habrán cambiado. Además, a menudo se produce la reacción muy humana de pensar que
nuestras circunstancias son muy diferentes a las de los demás y que “nadie puede decirme lo que yo necesito saber”.
Las historias son simplemente historias y no pretenden decirnos lo que debemos hacer, pero pueden ayudarnos a
encontrar la solución a nuestros problemas. Historias y narrativas, dice Snowden, hacen que la gestión de los
contenidos funcione mucho mejor.
Otro aspecto que Snowden resalta es el de la “gestión del contexto”: facilitar el contacto y la conexión entre las
personas. Confiaremos en los demás si les conocemos y se han hecho merecedores de esa confianza. Por tanto, es
necesario estimular la creación de redes sociales que nos permitan aprovechar al máximo el contexto en el que nos
encontramos. Como le oí a decir a alguien no hace mucho: “Content is king, but context is queen”.
Agustí Canals
Know-org
46
39. De dónde viene la gestión del conocimiento: tendencias
Tres tendencias sociales y económicas pueden explicar el surgimiento de la gestión del conocimiento: la
globalización, la ubicuidad de las TIC y la comunicación y la visión de la organización centrada en el conocimiento.
(Tiempo estimado de lectura: 2 minutos)
¿De dónde viene la gestión del conocimiento? Ésta es la pregunta que intenta responder Laurence Prusak
(http://infonomia.com/grandes/grandes.asp?id=8090), uno de los padres de la gestión del conocimiento en un
artículo publicado en IBM Systems Journal (http://www.research.ibm.com/journal/sj/404/prusak.html). En él
Prusak analiza por una parte los factores que propiciaron la aparición del interés en la gestión del conocimiento y
por otra sus antecedentes tanto a nivel de las disciplinas intelectuales más tradicionales como de las áreas
profesionales de carácter más práctico.
Los principales catalizadores en la aparición de la gestión del conocimiento como disciplina son, en opinión de
Prusak, las siguientes tendencias:
· La globalización: A causa de la necesidad de competir en mercados globales y, por tanto, ofrecer productos
nuevos con mayor rapidez y a mercados más amplios, se hace patente la necesidad de saber qué sabemos y de
preguntarnos qué deberíamos saber.
· La generalización de las tecnologías de la información y la comunicación (TIC): La cantidad de información
(aunque quizás deberíamos hablar de datos) a la que tenemos acceso ha aumentado de manera espectacular. Sin
embargo, nuestra productividad no ha aumentado de la misma manera. Eso ha hecho que nos veamos obligados a
resaltar el valor de las capacidades cognitivas, aún no replicables por los ordenadores, que nos permiten utilizar esa
información de manera adecuada. Así, dice Prusak, aspectos del conocimiento como el criterio, el diseño, el
liderazgo, la toma de buenas decisiones, la capacidad de persuadir, la voluntad, la innovación e incluso la estética y
el sentido del humor cobran más valor que nunca.
· La visión de la organización centrada en el conocimiento: Cada vez se hace más popular, por parte de
economistas, académicos del management estratégico y otros especialistas, la visión de las empresas o instituciones
como “un conjunto de capacidades coordinadas, unidas de alguna manera por su propia historia, y limitadas en su
efectividad por sus actuales habilidades cognitivas y sociales”. En palabras del premio Nobel de Economía Sydney
Winter (ver el artículo núm. 33 de Know-org), “organizaciones que saben cómo hacer cosas”. Está claro que el
componente principal de esas capacidades es el conocimiento, especialmente el que está mayoritariamente en forma
tácita y que es específico de la organización.
Este conjunto de factores propiciaron en el mundo de la gestión empresarial una preocupación por el
conocimiento y, como consecuencia, una serie de iniciativas que finalmente desembocaron en el surgimiento de un
nueva disciplina: la gestión del conocimiento. Sin embargo, esa nueva disciplina no es un castillo en el aire: tiene
raíces profundas en tradiciones intelectuales y profesionales que vienen de antiguo. Veremos cuáles son en el
próximo artículo.
Agustí Canals
Know-org
47
40. De dónde viene la gestión del conocimiento: tradiciones
La gestión del conocimiento recoge tradiciones intelectuales provenientes de la economía, la sociología, la filosofía
y la psicología. Por otra parte, también bebe de las fuentes de práctica profesional como la gestión de información,
el movimiento por la calidad y el capital humano.
(Tiempo estimado de lectura: 3 minutos)
En la segunda parte del artículo que ya comentamos en el número anterior de Know-org, Laurence Prusak
enumera las principales tradiciones en las que, a su modo de ver, se fundamenta la gestión del conocimiento.
Tres son para Prusak los precedentes de la gestión del conocimiento desde un punto de vista intelectual:
· La economía: Fueron economistas como Kenneth Arrow quienes identificaron por primera vez la importancia
del conocimiento y del aprendizaje en las organizaciones. Además, cuestiones que tradicionalmente preocupan al
análisis económico como la productividad, la definición de la función de producción o la definición de la unidad
de análisis adecuada tienen mucho que ver con la manera en que se utiliza el conocimiento.
· La sociología: Desde un punto de vista macro, la sociología se ha encargado de la definición y estudio de la
sociedad post-industrial basada en el conocimiento. Trabajos como los de Daniel Bell o Manuel Castells son
referencia obligada. Desde la vertiente micro, el estudio de las estructuras complejas de redes internas y
comunidades tiene una gran relevancia para la gestión del conocimiento.
· La filosofía y la psicología: El concepto mismo de conocimiento y su utilización tiene una larga tradición en
filosofía y en psicología. Por ejemplo, la ya popular distinción entre conocimiento tácito y explícito proviene, en
última instancia, de la filosofía aristotélica. Por otra parte, la psicología cognitiva presta una especial atención a los
procesos mentales relacionados con el conocimiento.
Las tradiciones profesionales que Prusak identifica como antecedentes en ciertos aspectos de la gestión del
conocimiento son las siguientes:
· La gestión de la información: Es evidente que la gestión del conocimiento tiene mucho que ver con la gestión
de información. Los profesionales de la gestión de información con su focalización en la información—más que en
las herramientas tecnológicas—y en las necesidades del usuario han desbrozado el camino para una buena gestión
del conocimiento.
· El movimiento por la calidad: La preocupación por la calidad ha propiciado el desarrollo de conceptos como
el cliente interno, los procesos abiertos y los objetivos compartidos y transparentes. Según Prusak, la gestión del
conocimiento ha recogido esos conceptos, las tecnologías de análisis y la idea de mejora continua del movimiento
por la calidad y los ha adaptado a sus objetivos.
· La aproximación basada en el capital humano: La conciencia cada vez más extendida del valor del capital
humano y de las ventajas financieras que representa la inversión en las personas, principalmente a través de la
educación y la formación es fundamental para la gestión el conocimiento.
Creo que este artículo de Prusak constituye un ejercicio especialmente interesante en un momento en el que la
inevitable especialización hace que los que trabajamos en este ámbito olvidemos a veces las múltiples facetas que
puede ofrecer. En la gestión del conocimiento cristalizan, en torno a la necesidad de responder a una serie de
preocupaciones de las organizaciones actuales, todo un conjunto de tradiciones científicas y de práctica profesional
que aportan a este campo una gran riqueza. Tenerlo presente puede ayudarnos sin duda a abordar los problemas
desde nuevos puntos de vista y aplicar, por tanto, soluciones más imaginativas.
Agustí Canals
Know-org
48
41. Qué entienden las empresas por GC
Un estudio reciente sobre la gestión del conocimiento en las empresas españolas parece dibujar dos maneras
distintas de ver la gestión del conocimiento en la empresa.
(Tiempo estimado de lectura: 3 minutos)
En el ámbito académico parece que va tomando cuerpo la gestión del conocimiento como un área de
investigación definida que, como vimos en el artículo anterior, recoge toda una serie de tradiciones vinculadas a
varias áreas de conocimiento. Probablemente es necesario ahondar un poco en la interdisciplinariedad de las
distintas líneas de investigación, pero se está avanzando considerablemente. Una prueba de ello es la reciente
celebración en Atenas del 3er Congreso Europeo sobre Conocimiento Organizacional, Aprendizaje y Capacidades
(http://www.alba.edu.gr/OKLC2002). Dicho evento congregó a más de cuatrocientos especialistas en el tema que
presentaron un gran número de trabajos de investigación, la mayoría de los cuales de un alto nivel académico.
En el ámbito empresarial, sin embargo, es un poco más difícil detectar cómo está evolucionando el concepto
de gestión del conocimiento. La amplitud y la indefinición del concepto mismo de conocimiento hacen que cada
empresa tenga una visión distinta de lo que es gestionar el conocimiento. Además, a esa confusión contribuye de
manera considerable el aprovechamiento—en algunos casos de difícil justificación—de la actual popularidad del
término por parte de empresas desarrolladoras de software y de consultoría.
Por ello me ha parecido interesante el recientemente aparecido informe “La gestión del conocimiento en
España – 2001” realizado por Alberto Almansa, Director de Gestión del Conocimiento de CGE&Y, y los profesores
Rafael Andreu y Sandra Sieber de IESE. En dicho informe (http://www.capgemini.es/news/informes/main.htm) se
recoge el resultado de una encuesta realizada a una muestra de 1.091 empresas españolas con una facturación de
más de 12.000 Millones de euros y más de 50 empleados. A partir de las 129 respuestas obtenidas se sacan algunas
conclusiones interesantes sobre cómo ven la gestión del conocimiento las empresas españolas.
Llama la atención, por ejemplo, que se observa una clara distinción entre dos perspectivas mayoritarias a la
hora de concebir la gestión del conocimiento. La primera se centra en las personas, su desarrollo y el aprendizaje
(44% de las empresas) y la segunda en la gestión de información y su almacenamiento (50%). Una tercera
perspectiva, centrada en la medición del Capital Intelectual es claramente minoritaria (4%).
Al analizar las acciones concretas se obtienen resultados similares en número entre las iniciativas “tecnológicas”
y las “no tecnológicas”. En muchos casos se relacionan las soluciones tecnológicas con la gestión de información y
las no tecnológicas con la visión centrada en las personas.
Por ejemplo, uno de los aspectos a los que las mismas empresas dan más importancia es el conocimiento
colectivo de los equipos de trabajo y, sin embargo, tienen un peso muy bajo los sistemas tecnológicos que pueden
contribuir a la creación y aprendizaje de ese tipo de conocimiento. Las tecnologías se utilizan mayoritariamente
para gestionar contenidos explícitos, no como herramienta para intercambio de conocimiento poco codificado o
aprendizaje.
Creo que es necesario romper esa barrera que parece surgir entre, por un lado, gestión de información y
tecnologías y, por el otro, personas y procesos de aprendizaje. Es necesaria una visión integral que tenga en cuenta
el conocimiento global de la empresa y que considere las tecnologías no como un fin sino como un posible medio—
extremadamente útil si se utiliza adecuadamente—para potenciar todo tipo de conocimiento.
Agustí Canals
Know-org
49
42. Gestionar conocimiento en la universidad
Las prácticas de la gestión del conocimiento deben poder hacer aportaciones importantes a un sector tan intensivo
en conocimiento como la universidad.
(Tiempo estimado de lectura: 3 minutos)
Si hay un sector especialmente intensivo en conocimiento, ése es el de la educación superior. La creación de
conocimiento y su transmisión forman parte de la razón de ser de la universidad. Los profesores de universidad han
sido, probablemente, unos de los primeros trabajadores del conocimiento reconocidos socialmente como tales. No
parece descabellado, por lo tanto, reflexionar sobre cómo las ideas de la gestión del conocimiento pueden
incorporarse a las instituciones universitarias. Además, en mi condición de profesor universitario esa reflexión se
hace inevitable. Apuntaré a continuación algunas de las cuestiones que me parecen interesantes al respecto.
El auge de la GC coincide, probablemente porque algunas de las causas de ambos fenómenos están
estrechamente relacionadas, con un período en el que se plantean importantes debates en el mundo universitario.
Se ha pasado en pocos años de una universidad a la que sólo asistían las élites a una formación universitaria para
una gran parte de la población. Las exigencias de la vida profesional hacen que ya no se contemple una formación
universitaria inicial que sirva para toda la vida sino que cada vez más pensemos en el “lifelong learning”; es decir,
en una formación a lo largo de toda la vida que nos permita actualizar periódicamente nuestros conocimientos. Las
universidades deberán competir, pues, por atraer a un estudiante con experiencia profesional y que sabe mucho
mejor lo que quiere.
Por otra parte, para poder acceder a las grandes líneas de financiación de la actividad investigadora, las
universidades deben ser capaces de atraer a los mejores científicos y de concentrar su acción en potentes grupos de
excelencia. Y todo ello sin descuidar la retroalimentación que la investigación debe aportar a través de su
interrelación con la función docente, la transferencia de tecnología y la difusión de conocimiento a la sociedad.
Además, las posibilidades que nos brindan a todos niveles las tecnologías de la información y la comunicación
(TIC) nos permiten pensar en nuevas maneras de plantear la actividad universitaria basadas en la virtualidad y la
interactividad.
Todo ello hace que tanto la docencia como la investigación, las dos funciones principales de la universidad,
deban responder a nuevos retos. La GC puede hacer aportaciones, al igual que en todo tipo de organización, a la
gestión de las instituciones universitarias. Y esas aportaciones pueden ser especialmente interesantes cuando el
grado de virtualidad y de estructura en red de la universidad aumentan. Sin embargo, la GC puede hacer también
algunas aportaciones específicas a la universidad tanto en la vertiente de docencia como en la de investigación.
En la actividad docente, por ejemplo, la creación de grandes repositorios de “contenidos” (representaciones del
conocimiento) en múltiples formatos y estructurados de tal manera que su recuperación y uso sea fácil a través de
la red puede ser una herramienta potentísima que complemente tanto la docencia tradicional presencial como la
virtual. De igual manera, el uso de espacios virtuales para la comunicación y el trabajo en grupo entre los
estudiantes puede contribuir a la mejora del aprendizaje.
Por otro lado, la creación de bases de datos en las cuales encontrar información sobre estrategias docentes o
ejemplos de buenas prácticas puede ser de gran ayuda a los profesores para mejorar sus acciones desde un punto
de vista pedagógico. O incluso se puede fomentar el aprovechamiento del conocimiento de las personas de la
institución con la posibilidad de contactar y consultar expertos en campos diversos a través de aplicaciones tipo
“páginas amarillas” o con el fomento de comunidades de práctica internas.
Han sido sólo unos pocos ejemplos de GC en la actividad docente. Creo que hay muchas más posibilidades que
tendremos que ir descubriendo. Otro día nos preguntaremos cuál puede ser la contribución de la GC a la
investigación.
Agustí Canals
Know-org
50
43. La investigación científica y la GC
Las peculiaridades de la investigación científica hacen que en ella la gestión del conocimiento tenga algunos
elementos diferenciales, aunque no todos.
(Tiempo estimado de lectura: 3 minutos)
Un colega sostiene que el mundo de la investigación científica ha desarrollado el sistema de gestión del
conocimiento más efectivo de la historia de la humanidad hasta el momento. La verdad es que difícilmente
encontraremos otro ámbito en el que se haya diseñado un conjunto de procesos más útiles para la creación,
almacenaje y transmisión de conocimiento útil que en la comunidad científica. El sistema del peer review
proporciona un auto-aseguramiento por parte de la comunidad científica de la calidad de los artículos publicados.
Así, las revistas científicas almacenan y difunden eficazmente un conocimiento que ha superado con éxito un cierto
control de calidad.
Este peculiar sistema hace que el investigador se deba más a su comunidad de referencia que a la institución a
la que pertenece. Quien va a juzgar los objetivos y los resultados de su investigación—en definitiva, su
competencia—no son sus superiores jerárquicos, sino sus pares. Van a valorar su trabajo aquel conjunto de
personas que, esparcidas por todo el mundo, están tratando los mismos problemas. Y no puede ser de otra manera.
Nadie más tiene competencias para realizar ese juicio. No es un sistema perfecto, pero ha dado hasta ahora grandes
resultados.
Comprender esa especificidad del ámbito de la investigación científica es imprescindible para la gestión de las
instituciones que acogen en su seno a los investigadores. Facilitar la integración de éstos en su correspondiente
comunidad científica debe ser una de las primeras medidas de gestión del conocimiento en universidades e
institutos de investigación.
Sin embargo, hay también otras acciones más específicas que las instituciones pueden tomar para fomentar y
facilitar la creación de conocimiento científico y su difusión. Por una parte, las herramientas típicas de gestión del
conocimiento pueden aplicarse a las tareas de gestión de la investigación como obtención de fondos, elaboración
de propuestas, gestión de proyectos, organización de congresos, etc. que cada vez son más importantes.
Pero también pueden realizarse acciones en torno a la misma tarea de investigación. Es necesario, por ejemplo,
facilitar el contacto entre los investigadores, tanto a nivel formal como informal. Eso es especialmente importante
cuando el objeto de la investigación requiere un tratamiento interdisciplinario. En estos casos, hay que conseguir
que individuos pertenecientes a distintas comunidades científicas trabajen conjuntamente. Para conseguir el
entendimiento es imprescindible el conocimiento mutuo a través del contacto personal.
Es posible también utilizar elementos tecnológicos. Se pueden construir bases de datos que contengan
información sobre los intereses de investigación de los distintos departamentos de la institución o de otras
instituciones que formen parte de la misma red, los resultados de investigación obtenidos, las posibles fuentes de
obtención de fondos, las oportunidades comerciales para los resultados de la investigación, etc. Todo ello puede
formar parte, por ejemplo, de una intranet que además facilite la obtención de información sobre las políticas,
procedimientos y servicios que afectan a la tarea del investigador.
La investigación tiene un componente tácito fundamental que debe tenerse muy presente. Aún así, explicitar
algunos elementos de conocimiento relativos al proceso de investigación puede ahorrar mucho tiempo de gestión
al investigador.
Agustí Canals
Know-org
51
44. Shock: compartir el conocimiento manteniendo el control
Un sistema desarrollado por los HP labs basado en las leyes del web y la tecnología peer-to-peer permite una mayor
libertad a la hora de compartir conocimiento.
(Tiempo estimado de lectura: 3 minutos)
No hace muchos días tuve la oportunidad de asistir a una interesante conferencia de Bernardo A. Huberman
(http://www.hpl.hp.com/shl/people/huberman/index.html), el director del área de “Information dynamics” de los
HP labs, el centro de investigación de HP situado en Palo Alto, California (http://www.hpl.hp.com/).
Los estudios realizados por Huberman y su equipo demuestran que, aunque la Web pueda parecer algo
sumamente caótico, en realidad se observa en él un orden intrínseco. Es decir, pese a su inmensidad y a ser el
resultado de la interacción de múltiples agentes, la Web obedece a unas leyes generales semejantes a las de la
mecánica estadística. Por ejemplo, la probabilidad de encontrar al azar un sitio web con un número determinado
de páginas viene dado por una expresión matemática sencilla que depende exclusivamente de una constante, del
número de páginas y de un coeficiente. O bien, escogiendo dos sitios web absolutamente al azar se puede ir de uno
a otro en promedio en tan sólo cuatro clicks. Todas estas “leyes de la Web” que Huberman expone en su libro de ese
mismo título (http://www.amazon.com/exec/obidos/ASIN/0262083035/infonomia), tienen, según el autor,
aplicaciones prácticas de utilidad por ejemplo en el descubrimiento de comunidades en la red o la mejora de
sistemas de búsqueda de información.
Sin embargo, la aplicación que más me llamó la atención de esas “leyes de la web” es el sistema llamado “Shock”
(http://www.hpl.hp.com/shl/projects/shock/index.html), acrónimo de “system for Social Harvesting of
Community Knowledge”. La idea es utilizar el conocimiento de las leyes que gobiernan las interacciones en un
entorno virtual y el concepto de peer-to-peer, popularizado por aplicaciones como Napster y Gnutella, para diseñar
un sistema para compartir el conocimiento a través de la red.
Los sistemas tradicionales normalmente requieren que los expertos en algún tema se identifiquen como tales y
que se tomen la molestia de describir su conocimiento e irlo manteniendo. A partir de los perfiles creados, los
usuarios del sistema pueden contactar con los expertos y hacer sus preguntas. Este tipo de sistema supone una clara
falta de privacidad, tanto por parte del experto que expone su perfil como del usuario que formula la pregunta. Y
eso hace que difícilmente quien posee conocimiento tenga la posibilidad de escoger si quiere o no compartirlo con
quien lo desea. Además, el mantenimiento de los perfiles supone una tarea suplementaria y a menudo tediosa. El
resultado muchas veces es que el sistema resulta infrautilizado.
Shock utiliza el estudio de las interacciones de cada usuario con su entorno digital (correo electrónico, páginas
web, documentos, etc.) para crear un perfil automático que refleja su expertise y sus intereses. Ese perfil se almacena
en una base de datos local y nadie más que el usuario tiene acceso a ella. Los distintos usuarios están conectados
mediante una red peer-to-peer de manera que el sistema utiliza la base de datos de cada usuario para filtrar las
preguntas que se lanzan y sólo llegarán a cada uno las que, por su perfil, puede ser que sea capaz de responder. El
experto puede decidir si contesta o no la pregunta (de manera anónima si lo desea) o si establece contacto con quien
la hizo.
La gracia del sistema es que permite poner en contacto a quien necesita el conocimiento con quien lo posee,
manteniendo el usuario el máximo control sobre sus datos. Sistemas parecidos, según Huberman, pueden utilizarse
para detectar preferencias parecidas sin revelarlas, o para llegar a acuerdos en negociaciones sin necesidad de
explicitar los objetivos de cada una de las partes.
Agustí Canals
Know-org
52
45. El principio 007
El “Principio 007” nos dice que modificamos y utilizamos nuestro entorno para poder vivir reduciendo al máximo
el conocimiento necesario en nuestro cerebro.
(Tiempo estimado de lectura: 3 minutos)
La distinción entre conocimiento tácito y explícito es uno de los primeros temas en la gran mayoría de los libros
sobre gestión del conocimiento. Esta idea se hizo popular sobre todo a partir de la publicación del famoso libro The
Knowledge-Creating Company de Nonaka y Takeuchi. Dichos autores utilizan los conceptos que años antes había
acuñado el químico y filósofo Michael Polanyi para diferenciar claramente el conocimiento tácito, que es “personal,
dependiente del contexto y, por tanto, difícil de formalizar y comunicar”, del conocimiento explícito, que es
“transmisible en lenguaje formal, sistemático”.
Sin embargo, si nos remitimos a las ideas originales de Polanyi, vemos que, en realidad, no está hablando de
dos tipos de conocimiento separados. Lo que Polanyi propone es que todo conocimiento tiene una dimensión tácita
y una dimensión explícita. Es decir, que el conocimiento tácito y el explícito son dos caras de la misma moneda.
Uno y otro se complementan y juntos constituyen el conocimiento que utilizamos para cualquier actividad. Al ir
por la calle en bicicleta, por ejemplo, combinamos—entre otros muchos—el conocimiento tácito de montar en el
vehículo con el conocimiento explícito del código de la circulación. O, al ir de excursión, utilizamos al mismo
tiempo el conocimiento tácito derivado del sentido de la orientación del explícito que obtenemos gracias a un
mapa. Lo tácito y lo explícito son dimensiones, a veces entrelazadas e indiscernibles, del conocimiento global que
utilizamos para ir por la vida.
Probablemente sea esa capacidad de explicitar una parte del conocimiento lo que ha dado una ventaja evolutiva
decisiva a la raza humana frente a otras especies. El lenguaje nos permite no sólo comunicar fácilmente la
dimensión explícita del conocimiento, sino también representarla y almacenarla en objetos que están fuera de
nuestro cuerpo como pergaminos, libros o ordenadores. Así, manteniendo en nuestro cerebro la dimensión tácita
del conocimiento y la mínima parte de la dimensión explícita que nos permite acceder a esos objetos externos,
utilizamos nuestro entorno para tener a nuestra disposición una gran cantidad de conocimiento optimizando
nuestro gasto de energía. Sólo hace falta recuperar la parte explícita del conocimiento que necesitamos en un
momento dado y combinarla con la que mantenemos en nuestro interior para actuar.
En cierto modo, este comportamiento es un ejemplo del llamado “Principio 007”. Dicho principio fue
formulado por el filósofo y especialista en ciencia cognitiva Andy Clark, autor del excelente libro Being there:
Putting Brain, Body, and World Together Again (http://www.amazon.com/exec/obidos/ASIN/
0262531569/infonomia), y reza que: “En general, las criaturas evolucionadas no almacenan ni procesan
información en formas costosas cuando pueden utilizar la estructura del entorno y sus operaciones sobre él como
un sustituto para las operaciones de proceso de información correspondientes. Esto es, conociendo sólo lo mínimo
necesario para hacer lo que se debe”.
Entonces, propone Clark en Being There, ¿por qué no podríamos decir que es nuestro cerebro junto con esas
estructuras externas lo que constituye en realidad nuestra mente? Es una idea, cuando menos, sorprendente.
¿Y si pensamos en un sistema complejo formado por un conjunto interrelacionado de cerebros y estructuras
externas? ¿Podría ser eso la “mente” que “contiene” el conocimiento de una organización?
Agustí Canals
Know-org
53
46. Cynefin
A la hora de intentar gestionar el conocimiento, debemos tener en cuenta que las organizaciones son sistemas
complejos y utilizar lo que sabemos sobre ese tipo de sistemas.
(Tiempo estimado de lectura: 3 minutos)
Las organizaciones son sistemas complejos y todo lo relacionado con el conocimiento constituye una parte
fundamental de esa complejidad (ver Know-org número 29). Por tanto, nos equivocamos si queremos obtener
recetas simples y válidas para todas las situaciones que nos solucionen la gestión del conocimiento.
Hay que aclarar que no es lo mismo un sistema complejo que un sistema complicado. Un avión, por ejemplo,
es un sistema complicado. Consta de múltiples partes formadas a su vez por gran cantidad de piezas muy
interrelacionadas entre ellas. Es posible, incluso, que no haya una sola persona que conozca todos los detalles del
diseño de un aeroplano. Sin embargo, podríamos desmontarlo totalmente e ir deduciendo su funcionamiento a
partir de las relaciones causa-efecto entre las distintas partes. En un sistema complejo, por el contrario, se observan
unos patrones a nivel del sistema global, llamados “emergentes”, que no pueden ser deducidos a partir de las
interacciones individuales de las partes.
Por tanto, la manera de enfrentarnos a un sistema complejo no puede ser la misma que para los sistemas
simples—por complicados que sean. No podemos entender las organizaciones exclusivamente desde un punto de
vista taylorista como si fueran máquinas donde todo son relaciones directas causa-efecto que permiten predecir lo
que ocurrirá o encontrar la receta inmediata para cada problema. Las relaciones a menudo no son lineales y el efecto
de cualquier acción puede tener consecuencias imprevistas a nivel global.
M. Mitchell Waldrop, en el libro Complexity (http://www.amazon.com/exec/obidos/ASIN/0671872346/
infonomia), donde narra el inicio de la disciplina que hoy conocemos como teorías de la complejidad, utiliza un
ejemplo muy gráfico. En un río muy revuelto podemos adoptar dos soluciones para desplazarnos entre dos puntos.
Podríamos utilizar una potente lancha motora capaz de vencer a base de fuerza bruta las corrientes y los remolinos.
Pero otra manera de hacerlo sería observar el río para conocer perfectamente el sentido de las corrientes y la
situación de los vértices. Entonces con un pequeño bote podemos aprovecharnos de éstos para nuestro objetivo.
Utilizando los remos de forma puntual, por ejemplo, para incorporarnos a una corriente o para salir de un
remolino que nos aleja de nuestra ruta, podemos conseguir nuestro fin. En un sistema complejo no es posible
actuar de la primera forma. Debemos ser capaces de observar los patrones emergentes para, a través de acciones
puntuales y concretas, utilizarlos a nuestro favor.
Estas líneas de pensamiento parece que están cuajando cada vez más en la ciencia de las organizaciones en
general, y de manera específica entre algunos estudiosos de la gestión del conocimiento.
Un ejemplo de ello es la reciente creación en el seno de IBM del centro Cynefin para el estudio de la
complejidad en las organizaciones (http://www-1.ibm.com/services/cynefin/) por parte del guru de la gestión del
conocimiento David Snowden. Cynefin es una palabra de la lengua galesa de difícil traducción que viene a
denominar el lugar en el que hemos crecido y al cual estamos adaptados y nuestra relación con él. Tiene cierta
similitud con el Ba de Nonaka (ya comentado en el artículo 6), pero contiene una dimensión de tradición, donde
las narraciones e historias juegan un papel fundamental.
Como ya comentamos en otro artículo ( el 37 de este libro digital), Snowden apuesta por una tercera era en la
gestión del conocimiento donde se da gran importancia a los contenidos, las narrativas y el contexto; y donde es
fundamental entender la complejidad de las organizaciones para gestionarlas con éxito. Cynefin es un paso en esa
dirección.
Agustí Canals
Know-org
54
47. Diez líneas de futuro
Para avanzar en la gestión del conocimiento será necesario explorar nuevas ideas y líneas de trabajo. Proponemos
diez para empezar.
(Tiempo estimado de lectura: 2 minutos)
Cada vez parece más extendida la impresión de que la gestión del conocimiento está perdiendo impulso y que
acabará pasando como muchas otras modas. A ello están contribuyendo tanto los mediocres resultados de algunos
proyectos que se vendían como la solución a todos los problemas de la empresa y la mala imagen que están creando
algunas empresas consultoras y de tecnologías que intentan vender cualquier cosa bajo el nombre de gestión del
conocimiento. Sin embargo, creo—o quiero creer—que la gestión del conocimiento continua teniendo sentido y
que va a desaparecer como “fad” sólo cuando se haya integrado de manera natural a los procesos funcionales y
estratégicos de las organizaciones y a las teorías de la gestión empresarial.
Pero lo que está claro es que es necesario avanzar, conceptualmente y en la práctica, aprendiendo y explorando
nuevas ideas. Como estamos a final de temporada con las vacaciones muy cerca, me atrevo a proponer diez líneas
en las que creo que se puede avanzar en el campo de la gestión del conocimiento:
1. Nuevas tecnologías para la gestión de contenidos, con especial atención a las que permitan gestionar los
formatos audiovisuales.
2. Explorar la relación conocimiento tácito-conocimiento explícito no como una oposición sino como una
complementariedad.
3. Profundizar en una distinción clara entre datos, información y conocimiento que permita identificar lo que
son realmente contenidos cognitivos desde un punto de vista práctico e implantar las metodologías adecuadas.
Conozco ya algún proyecto de investigación que va en esa línea.
4. Conocer más a fondo el fenómeno del conocimiento colectivo y sus mecanismos.
5. El conocimiento como fenómeno emergente que surge en las organizaciones entendidas como sistemas
complejos adaptativos.
6. Tecnologías que ayudan a la comunicación y a la interrelación en organizaciones en red.
7. Introducción de la variable espacio-temporal: ¿en qué casos—si es que los hay—el conocimiento sólo puede
transmitirse de manera presencial y síncrona?
8. La relación entre la gestión del conocimiento y el e-learning.
9. Continuar el desarrollo y la aplicación de la teoría de la empresa basada en el conocimiento.
10. Diseñar sistemas para determinar el retorno de la inversión (ROI) en proyectos de gestión del conocimiento
y para medir el capital intelectual.
Como podéis ver, se trata de una especie de brainstorming sin un orden ni una secuencia lógica determinados.
Seguro que ni son todas las que están, ni están todas las que son, pero a mi me ha resultado un ejercicio muy
estimulante. Dejo en manos del lector completar la lista o, mejor aún, construir una mejor. Agradeceré cualquier
aportación o crítica—aunque sea constructiva—al respecto.
Mis mejores deseos para estas merecidas vacaciones.
Agustí Canals
Know-org
55
46. El valor del conocimiento
La dificultad intrínseca en la valoración del conocimiento organizacional se agrava cuando intentamos valorar la
aportación de los proyectos concretos al acervo global de conocimiento.
(Tiempo estimado de lectura: 3 minutos)
La toma de conciencia sobre la importancia del conocimiento en la actividad de las organizaciones ha
generado, lógicamente, una preocupación creciente por conseguir asignar un valor a ese conocimiento. Los
múltiples proyectos de gestión del conocimiento que se han emprendido en los últimos años, muchos de ellos sin
resultados claros e incluso algunos claramente fallidos, han puesto de relieve la necesidad de encontrar métodos que
permitan valorar el conocimiento de la organización. Y más aún en una coyuntura económica no muy boyante
como la actual y teniendo en cuenta la cantidad de dinero que mueven dichos proyectos. Estimaciones de la
consultora IDC (http://www.idc.com) citadas por Tom Stewart (http://www.business2.com/articles/mag/
0,1640,36747,FF.html) elevan a 6.000 millones de dólares la cantidad total que se va a invertir en proyectos de
software y servicios de gestión del conocimiento en 2002
En teoría, el resultado de cualquier proyecto de gestión del conocimiento debería ser fácil de determinar si
podemos valorar los activos de conocimiento. Si el valor del conocimiento después del proyecto es superior al inicial
en una cantidad superior a la del coste total, podemos considerar que el proyecto ha sido un éxito. Fácil, ¿no es
cierto? Pero el quid de la cuestión es cómo se determina el valor del conocimiento. Y eso no parece tan fácil.
Markus Perkmann identifica dos perspectivas distintas a la hora de abordar el la valoración del conocimiento
(http://www.ki-network.org/downloads/knowledge_value_B7.pdf). La visión “macro” intenta capturar el valor de
todos los activos de conocimiento de una organización a través de herramientas como el “Balanced Scorecard”,
índices diversos o navegadores como el que utiliza la compañía sueca Skandia (http://www.skandia.com). La visión
“micro”, por el contrario, se centra en determinar y cuantificar el impacto de los proyectos concretos de gestión del
conocimiento como, por ejemplo, el desarrollo de bases de datos de conocimiento o de sistemas para fomentar la
generación de ideas innovadoras o incluso la creación de comunidades de práctica.
Lo que parece más difícil es conjuntar las dos visiones encontrando las relaciones causales entre las iniciativas
concretas y su impacto en la cuenta de resultados. Los responsables de los proyectos evalúan a menudo de alguna
manera sus resultados a través de procedimientos pragmáticos como encuestas, estudio de casos o estadísticas de
utilización de los sistemas. Sin embargo, aunque dichos procedimientos pueden justificar el proyecto a la alta
dirección, no determinan el aumento global del valor del conocimiento en la organización. Incluso cuando se
calcula el ROI (retorno de la inversión) de un proyecto, no se tiene en cuenta generalmente el efecto que el proyecto
tiene en otras partes de la organización. Y en proyectos de gestión del conocimiento ese efecto puede ser tan
importante como el que genera el proyecto directamente.
Probablemente parte del problema está en que nos empeñamos valorar algo extremadamente complejo como
el conocimiento con sistemas contables pensados para sistemas lineales, más parecidos a máquinas inertes que a
organizaciones formadas por personas. En el valor del conocimiento intervienen múltiples factores
interrelacionados, tanto externos como internos a la organización, que hay que tener en cuenta. ¿Qué valor tiene
una magnífica base de datos si no hay en la organización quien sepa utilizarla? ¿Qué valor tiene contar con los
mejores expertos mundiales en máquinas de vapor si lo que el mercado pide son motores de combustión interna?
Por otra parte, debemos tener siempre en cuenta que, en última instancia, el objetivo fundamental no es valorar
el conocimiento, sino mejorar nuestra capacidad de explotar y crear ese conocimiento.
Agustí Canals
Know-org
56
49. Rutinas, "memes", "kenes"
Rutinas, "memes" y "kenes" son distintas maneras de simplificar el concepto de conocimiento que permiten
modelizar los procesos relacionados con él.
(Tiempo estimado de lectura: 3 minutos)
A estas alturas, no es nada nuevo decir que el conocimiento es algo extremadamente complejo. Y eso tiene,
como ya hemos visto en otros artículos, consecuencias teóricas y prácticas en el ámbito de la gestión del
conocimiento.
Por ejemplo, intentar englobar en un modelo conceptual global todas las tipologías, características, funciones,
usos y procesos relativos al conocimiento dentro de las organizaciones u otros sistemas sociales es una tarea muy
difícil de acometer. Y aún lo es más si lo que pretendemos es que el modelo tenga un nivel de formalización que
permita su tratamiento con herramientas matemáticas o informáticas.
Sin embargo, sí es posible idear modelos más o menos formales que representen sólo algunos aspectos parciales
del conocimiento. Sería algo parecido a lo que suelen hacer los teóricos de la economía cuando modelizan, por
ejemplo, la competencia perfecta entre dos empresas o el mecanismo de una subasta, considerando sólo algunas de
las variables implicadas, ignorando otros efectos que se dan en los casos reales. Se trata, en cierto modo, de aplicar
el “Teorema del elefante” que ya describimos en el mensaje número 3, y analizar los distintos aspectos uno a uno
por separado.
Precisamente son unos economistas, Nelson y Winter quienes en los años 80 propusieron un modelo en el que
una parte del conocimiento de una organización se concreta en unos elementos que ellos llaman “rutinas” y que
constituyen patrones de comportamiento regulares y predictibles. Las rutinas pueden ser de muchos tipos. Por
ejemplo, pueden ser rutinas tanto unos procesos de producción como una manera de atacar los problemas. Las
rutinas son una característica de la organización y son heredables, por ejemplo, por nuevas fábricas de una misma
empresa o por empresas subsidiarias. Lo más interesante es que a partir de ese concepto se pueden construir
modelos matemáticos para describir procesos de innovación, es decir, de creación de conocimiento, que desde un
punto de vista evolutivo presentan una alternativa muy interesante a los modelos económicos tradicionales basados
en el equilibrio estático.
Otro concepto similar para representar el conocimiento es el de “meme”, que ya había propuesto en 1976 el
biólogo Richard Dawkins en su libro The Selfish Gene (“El gen egoísta”). El “meme” es el equivalente cultural al gen
biológico, es algo que puede replicarse pasando de una persona a otra como una idea, una moda o un estilo de
construir catedrales. Igual que los genes, los “memes” pueden sufrir modificaciones en el proceso de replicación. Y,
al igual que los genes también, los “memes” más fuertes sobreviven y los más débiles desaparecen. Una interesante
manera de pensar en el conocimiento.
Algo parecido es lo que propone el sociólogo Nigel Gilbert. En el artículo titulado “A Simulation of the
Structure of Academic Science” (http://www.socresonline.org.uk/2/2/3.html) utiliza el concepto de “kene” como
“un cuanto de conocimiento”. Representando el “kene” por una cadena de bits consigue construir un modelo de
simulación del comportamiento de la publicación de artículos en las disciplinas científicas realmente sorprendente.
Parece obvio que ni rutinas, ni “memes”, ni “kenes” pueden representar toda la complejidad del conocimiento
humano. Sin embargo, a través de ellos podemos llegar a entenderlo un poco mejor.
Agustí Canals
Know-org
57
50. La importancia de la competencia informacional
Difícilmente llegaremos a una buena gestión del conocimiento si no empezamos por asegurar la competencia
informacional de las personas de la organización.
(Tiempo estimado de lectura: 3 minutos)
La función principal de la gestión del conocimiento es asegurar fundamentalmente dos procesos: la creación y
la transmisión de conocimiento. De esta manera la organización consigue optimizar la utilización de sus activos de
conocimiento en la creación de valor. Evidentemente, hay otros procesos de los cuales la gestión del conocimiento
es responsable como al almacenaje de datos o documentos o la organización del conocimiento por medio de la
definición de taxonomías, pero son procesos cuya función es de soporte a los dos fundamentales.
De hecho, incluso esos dos procesos básicos están muy íntimamente relacionados. Probablemente no podemos
desligar uno de otro. En el fondo, siempre creamos conocimiento en parte gracias a lo que otros nos han
transmitido y en la verdadera transmisión de conocimiento lo que acabamos haciendo es crear nuestra propia
versión de los que nos han intentado comunicar.
En alguna ocasión ya hemos comentado que podríamos considerar que la información es aquello que un
agente extrae de los datos y que le permite modificar su conocimiento. Se trataría, por tanto, más de un proceso que
de un objeto, o bien de un objeto que no puede desligarse de un proceso. La información, pues, juega un papel
fundamental tanto en la creación de conocimiento como en su transmisión. Parece evidente, pues, que una buena
gestión de información será uno de los factores de éxito en un proyecto de gestión del conocimiento.
Mientras la gestión del conocimiento intenta optimizar desde un punto de vista estratégico la utilización del
conocimiento para aportar valor, la gestión de información adopta una perspectiva a nivel de los procesos concretos
en los cuales interviene la información cuidando de que éstos contribuyan a los objetivos de la organización. Pero
es obvio que dichos procesos tienen un papel relevante para que la gestión del conocimiento consiga sus objetivos.
Podríamos decir que la gestión de la información forma parte de las bases donde se sustenta la gestión del
conocimiento.
Pero algo parecido ocurre cuando examinamos más de cerca la gestión de información. Para que los procesos
con información funcionen adecuadamente es necesario que toda una serie de “microprocesos” que se producen
cuando las personas interaccionan con la información se efectúen con eficacia y eficiencia. De ahí, por ejemplo, el
gran interés que están despertando en los últimos tiempos campos como la visualización de información, la
usabilidad o la interacción persona-ordenador (“Human-Computer Interaction”).
Si embargo, algo a lo que parece que no se presta tanta atención es la competencia informacional. A mi
entender, si los miembros de una organización no tienen las capacidades y las actitudes que les permitan, por
ejemplo, encontrar la información que necesitan, procesarla y utilizarla de manera adecuada, no será posible una
adecuada gestión de información y, por tanto, tampoco la gestión del conocimiento (debo estas ideas a Eva Ortoll,
compañera de departamento y especialista en el ámbito de la competencia informacional).
Es algo que deberían tener muy en cuenta quienes están al cuidado de los programas de formación de las
empresas e instituciones: a veces, los mismos responsables de la gestión del conocimiento.
Agustí Canals
Know-org
58
51. El espacio aún cuenta, pero menos
La transmisión a distancia del conocimiento menos codificado es más difícil, pero nuevas tecnologías y nuevas
maneras de utilizarlas lo van facilitando cada vez más.
(Tiempo estimado de lectura: 3 minutos)
Parecía que en pocos años las tecnologías de la información y la comunicación iban a permitirnos superar
absolutamente todas las barreras de espacio y tiempo. De hecho, los avances en ese sentido han sido realmente
espectaculares en campos como el acceso a la información o la educación. Sin embargo, algunos hechos nos
apuntan que el espacio, la distancia física, aún tiene su importancia. ¿Por qué, por ejemplo, las empresas y
universidades de Silicon Valley se concentran en un espacio tan reducido, cuando podrían estar diseminadas por
Estados Unidos, o por el mundo entero? O bien, ¿por qué los grupos sociales que más utilizan Internet y que son
más creativos e innovadores tienden a preferir las grandes ciudades en lugar de la tranquilidad de la vida en el
campo?
Probablemente hay algunos aspectos de la creación y la transmisión de conocimiento que aún requieren la
proximidad física. El conocimiento que es más fácil de codificar y que está menos ligado a un contexto determinado
puede ser transferido con gran éxito por medios tecnológicos. El conocimiento tácito, el que difícilmente podemos
ni tan siguiera explicar, y que muchas veces está profundamente asociado a un entorno dado, se propaga mucho
menos fluidamente en las redes. De ahí que, para algunas cosas, la distancia aún es importante. Y eso tiene
implicaciones importantes, por ejemplo, para una multinacional que planifica su expansión, o bien para un
gobierno que quiere fomentar el crecimiento económico de una región.
Pero sería un error pensar que esa situación no puede ir cambiando gradualmente en el futuro. Varios factores
pueden jugar un papel en ese cambio. Por un lado, la evolución de las tecnologías y de la infraestructura de las redes
de comunicación hace que cada vez dispongamos de una anchura de banda mayor (RDSI, ADSL, fibra óptica).
Cuanto mayor es la anchura de banda, más cantidad de datos podemos transmitir simultáneamente y, por tanto,
más riqueza puede tener el acto comunicativo. Una videoconferencia, por ejemplo, no es como una reunión cara a
cara, pero es mucho mejor que una conversación telefónica. Además, también están evolucionando muy
rápidamente las tecnologías que facilitan la interrelación y la colaboración entre personas. Según un reciente
estudio de la consultora IDC (eINFORM, Volume 3, Issue 8) una de las tecnologías emergentes en el ámbito de la
gestión del conocimiento es el de las aplicaciones de trabajo en colaboración. Nuevos avances en este tipo de
herramientas pueden facilitar la transmisión de conocimiento con un grado de codificación cada vez menor.
Por otro lado, las personas necesitamos un período de adaptación para aprovechar todas las posibilidades de
las nuevas tecnologías. A medida que vayamos acostumbrándonos al uso de Internet iremos adaptándonos a utilizar
ese medio para comunicarnos y encontraremos maneras de transmitir conocimiento menos codificado y crear
contextos compartidos que nos permitan interpretar mejor los datos que recibimos. Y cuando toman el relevo
nuevos usuarios que ya han crecido con el medio, las posibilidades son aún mayores. Sólo hay que ver, por ejemplo,
el jugo que le sacan a la mensajería a través de los teléfonos móviles los adolescentes actuales.
A efectos de creación y transmisión del conocimiento el espacio físico aún cuenta, pero las distancias se van
reduciendo.
Agustí Canals
Know-org
59
52. e-Learning y Gestión del Conocimiento
El e-learning y la gestión del conocimiento tienen varios puntos de contacto, tanto a nivel conceptual como en
algunas de las herramientas que en el mercado utilizan esas etiquetas.
(Tiempo estimado de lectura: 3 minutos)
e-Learning y gestión del conocimiento parecen dos conceptos condenados a entenderse. Hay quien insinúa
incluso que poca diferencia hay entre ellos (ver, por ejemplo, la interesante entrevista de Alfons Cornella a Roger
Schank en Ke!; http://www.infonomia.com/extranet/index.asp?idm=1&idrev=1&num=650). No creo que sea así,
puesto que uno y otro surgen como respuesta a problemas diferentes, aunque muchas veces relacionados. Mientras
el e-learning trata de cómo utilizar las tecnologías en los procesos de aprendizaje, la gestión del conocimiento
pretende optimizar la creación y el uso del conocimiento para obtener valor.
Es evidente que algunas prácticas de la gestión del conocimiento pueden ser muy útiles para las instituciones
que ofrecen o utilizan e-learning. Una adecuada gestión de contenidos es clave para optimizar su proceso de
creación y facilitar su reutilización. Asimismo, la aplicación de técnicas utilizadas para fomentar la transmisión de
conocimiento tácito como la creación de comunidades de práctica pueden trasladarse al e-learning en forma de
comunidades virtuales de aprendizaje.
Por otra parte, también es cierto que utilizando e-learning se pueden paliar carencias en el conocimiento de los
miembros de la organización. Un programa completo de gestión del conocimiento debe considerar la utilización
del e-learning entre otras metodologías de transferencia de conocimiento.
Sin embargo, no creo que e-learning y gestión del conocimiento puedan identificarse. Uno y otro surgen como
respuesta a problemas diferentes, aunque muchas veces relacionados. Mientras el e-learning trata de cómo utilizar
las tecnologías en los procesos de aprendizaje, la gestión del conocimiento pretende optimizar la creación y el uso
del conocimiento para obtener valor. La confusión surge muchas veces cuando se identifica el concepto con las
herramientas creadas como respuesta a algunos de los problemas que plantea. Las herramientas pueden
comercializarse con una u otra etiqueta, pero pueden incorporar elementos tanto de e-learning como de gestión del
conocimiento.
Los llamados Electronic Performance Support Systems (algo así como “sistemas electrónicos de apoyo al
desempeño”), por ejemplo, son entornos de trabajo electrónicos creados para facilitar la ejecución de su tarea a la
persona que los está utilizando (algo parecido al famoso “clip” de Microsoft Office, aunque espero que algo más
efectivo...). Cuando durante el proceso el usuario llega a una situación que no puede resolver porqué le falta una
información o no posee el conocimiento adecuado, el sistema lo detecta y se los proporciona. Así, en teoría, el
aprendizaje se integra en la tarea, se minimizan las interrupciones y se consigue que personas con menos formación
previa puedan realizar funciones especializadas o mejorar el desempeño de los especialistas. Los interesados pueden
encontrar amplia información sobre este tipo de sistemas en el web de la Universidad de North Carolina
(http://www.unc.edu/cit/2002web/guides/irg-47.html).
Los EPSS tendrían, por tanto, algo de sistema de gestión del conocimiento, pero también incorporan conceptos
de e-learning cuando ofrecen “píldoras de conocimiento” en forma de materiales de e-learning para ser utilizadas
en el momento adecuado.
Para mí, sin embargo, la relación más interesante entre e-learning y gestión del conocimiento es la que existe a
nivel fundamental entre conocimiento y aprendizaje. ¿Qué son la creación y la transmisión de conocimiento si no
procesos de aprendizaje?
Agustí Canals
Know-org
60
53. GC en medicina: hacia el JIT
Se están desarrollando nuevos sistemas de gestión del conocimiento integrados en los procesos de trabajo que
proporcionan conocimiento "just-in-time" para el apoyo a profesionales de alto nivel como los médicos.
(Tiempo estimado de lectura: 3 minutos)
Según un informe del Institute of Medicine de noviembre de 1999 titulado To Err is Human (“Errar es
humano”) (http://books.nap.edu/catalog/9728.html), al menos 44.000 personas, y quizás hasta un total de 98.000,
mueren cada año en los hospitales americanos a causa de errores médicos que podrían haberse evitado. En algunos
casos la causa del error es simplemente la negligencia profesional, pero en muchos otros el problema radica en la
falta de información o en el desconocimiento.
Es prácticamente imposible para un profesional médico mantenerse al día del conocimiento que se genera día
a día en su especialidad. Y mucho más conocer todos los avances de la medicina en general. Eso hace que algunas
veces ese profesional no aplique unos valiosos conocimientos—que están a su disposición en forma de artículos
científicos o de informes sobre pruebas médicas—con fatales consecuencias para el paciente.
También resulta difícil tener en cuenta los numerosos factores que intervienen en una decisión médica, sobre
todo cuando ésta se realiza bajo presión de tiempo y cuando la información no se puede obtener de manera fácil y
en un formato que facilite su interpretación.
El movimiento por la llamada “Medicina Basada en la Evidencia” (Evidence-Based Medicine) es un intento de
mejorar la práctica médica en esos aspectos. La MBE se define como “el uso consciente, explícito y sensato de la
mejor evidencia disponible en la toma de decisiones sobre el cuidado de los pacientes”
(http://minerva.minervation.com/cebm/). Ello no quiere decir que el facultativo deba dejar de aplicar el criterio
que se ha formado a lo largo de su carrera profesional, sino que puede completar esa experiencia con otras fuentes
de conocimiento externas obtenidas a través de una búsqueda sistemática. El planteamiento parece totalmente
lógico: es absurdo no aprovechar todo lo que pueda ayudar a salvar una vida humana.
El problema radica, como pasa a menudo en la gestión del conocimiento, en cómo se operativizan esas ideas.
En un artículo de julio del 2002 en Harvard Business Review titulado “Just-in-Time Delivery Comes to Knowledge
Management”, Thomas Davenport y John Glaser describen una experiencia muy interesante llevada a cabo en un
hospital de Boston. En vista de que las iniciativas tradicionales de la gestión del conocimiento para fomentar la
compartición y la adquisición de conocimiento muchas veces no acaban de funcionar porque no se consigue la
implicación de los trabajadores del conocimiento, se decidió incorporar el conocimiento especializado en los
procesos de trabajo de los médicos a través de las tecnologías que éstos utilizan.
Así, en el momento en el que el médico utiliza el sistema informático para recetar un medicamento, un
programa automático puede acceder al expediente del paciente para prevenir una posible reacción alérgica o
comprobar que no haya ninguna incompatibilidad con otros fármacos que ya esté tomando. Incluso, el sistema
puede sugerir que en lugar del propuesto se recete un medicamento genérico o bien un sustitutivo que haya
demostrado una mayor efectividad. O, por ejemplo, al solicitar una determinada prueba médica, el sistema puede
detectar que dicha prueba ya se ha realizado en otras ocasiones con resultados negativos o bien sugerir pruebas
complementarias en base a los parámetros que presenta el expediente del paciente. El sistema puede, incluso,
proporcionar los últimos resultados de pruebas realizadas con los medicamentos o una relación de los últimos
artículos publicados sobre las posibles dolencias del paciente en base a los síntomas que presenta. Y todo ello, justin-time, en el momento en que el médico está atendiendo al paciente.
A pesar de que la decisión última es siempre del médico, el sistema puede resultar de inestimable ayuda e
incluso salvar vidas. Es un ejemplo a considerar en el diseño de sistemas de gestión del conocimiento para
profesionales de alto nivel.
Agustí Canals
Know-org
61
54. ¿Qué tipo de bien es el conocimiento?
En las últimas décadas, las ciencias económicas han ido incorporando el conocimiento como un factor de
importancia creciente en sus modelos.
(Tiempo estimado de lectura: 3 minutos)
A menudo leemos u oímos que estamos en la economía del conocimiento. El argumento que suele soportar esa
afirmación es que el conocimiento, aunque siempre ha estado presente, está tomando ahora un papel
preponderante en los procesos económicos. Esto es indudable. Pero puede ser interesante para los que estamos
interesados en la gestión del conocimiento profundizar un poco más y ver cómo se trata el papel del conocimiento
en las ciencias económicas.
La verdad es que la economía tradicional no daba mucha importancia al conocimiento. Lo consideraba algo
“exógeno”. Es decir, algo que existía, pero que venía dado y que no se explicaba mediante los modelos económicos.
Sin embargo, en las últimas décadas se ha avanzado un poco más en la comprensión del papel del conocimiento en
los procesos de la economía.
Los economistas suelen clasificar los bienes atendiendo a dos propiedades: la rivalidad y la capacidad de
exclusión. Un bien se considera “rival” cuando no puede ser utilizado al mismo tiempo por varias personas. Una
bicicleta, por ejemplo, es un bien rival. Si un ciclista está montando en ella, nadie más puede usarla. En cambio, el
alumbrado eléctrico es un bien “no rival”, puesto que el hecho de que el ciclista lo esté usando cuando pasa por la
calle de noche no impide que los demás transeúntes lo utilicen también. Un bien es “excluible” cuando es posible
impedir que alguien lo utilice y “no excluible” cuando ello no es posible. Un pastel es excluible porque quien lo
posee puede impedir que otros se lo coman. En cambio, el aire es no excluible, pues nadie tiene la potestad de
impedir a los demás que respiren.
Tradicionalmente, los economistas han dividido los bienes en dos tipos: bienes privados como los coches o el
mineral de hierro (rivales y excluibles) y bienes públicos como los faros o la defensa nacional (no rivales y no
excluibles). Para los primeros, el libre mercado funciona aceptablemente, pero no así para los segundos. La
existencia de bienes públicos provoca situaciones en las que hay quien se aprovecha del bien sin contribuir a su
producción (el llamado problema de los “free riders”), ya que no se les puede obligar a ello. Además, el libre
mercado no produce la cantidad necesaria de bienes públicos porque nadie puede capitalizar los beneficios que la
gente obtiene de esos bienes. Es por esta razón que es el Estado quien suele encargarse de la producción de bienes
públicos.
¿Qué tipo de bien es el conocimiento? En principio, el conocimiento parece más un bien público que privado.
La teoría de la relatividad, por ejemplo, es algo que todo el mundo puede utilizar al mismo tiempo y a nadie puede
impedírsele. Sin embargo, en algunos casos el conocimiento, aunque sea no rival, puede ser parcialmente excluible.
Ya sea, por ejemplo, ejerciendo el derecho a la propiedad intelectual o bien simplemente manteniéndolo en secreto.
La toma de conciencia sobre esas características peculiares del conocimiento ha dado lugar a partir de la década
de los 80 a modelos económicos que incorporan ese factor como un componente fundamental, como algo
“endógeno” al modelo y que se explica a través de éste. Es el caso, por ejemplo, de la llamada “New Growth Theory”
(véase la excelente introducción a este tema de Joseph Cortright en http://www.impresaconsulting.com/ngt.htm).
Sin embargo, algo que no parece tenerse en cuenta en la mayoría de modelos económicos es la diferencia que
existe entre datos, información o conocimiento. Los tres conceptos suelen confundirse y ser tratados como si fueran
lo mismo. En mi opinión, un clara distinción entre ellos redundaría probablemente en una mejora de la capacidad
explicativa de los modelos económicos.
Agustí Canals
Know-org
62
55. Crecimiento
La teoría económica nos muestra el papel fundamental del conocimiento en el crecimiento de nuestras economías.
(Tiempo estimado de lectura: 3 minutos)
El parámetro que se suele utilizar para determinar la marcha de la economía es el crecimiento. El nivel de
crecimiento, por ejemplo, del producto interior bruto (PIB), nos proporciona una idea sobre cómo está la economía
de un país. Podemos preguntarnos, sin embargo, si es lógico pensar que se pueda crecer indefinidamente de una
manera sostenible si los recursos físicos—como el petróleo, el agua del mar o incluso el aire que respiramos—son
finitos.
Está claro que los recursos físicos son finitos. A medida que los vamos utilizando, desaparecen. Pero hay otro
tipo de recursos que se comportan de manera muy diferente. Como vimos en el artículo anterior, el conocimiento
es uno de ellos. El conocimiento es un bien no rival y sólo parcialmente excluible. El conocimiento, por ejemplo, no
se gasta al ser utilizado, sino que incluso mejora, se hace más útil. Esas características del conocimiento hacen que
sea un recurso fundamental a la hora de explicar por qué es posible pensar en un crecimiento, si no indefinido, sí
sostenible a largo plazo.
En efecto, los avances del conocimiento hacen que podamos combinar los recursos físicos de nuevas maneras
y cada vez con más efectividad. Por ejemplo, la materia que forma un ordenador actual (metal, plástico, silicio, etc.)
y el trabajo que se invierte en su construcción son aproximadamente los mismos que en los ordenadores de hace
diez años. Sin embargo, sus prestaciones son muy superiores. La diferencia está en el conocimiento que se emplea.
Y, a diferencia de lo que ocurre con los recursos físicos, el conocimiento puede ir aumentando de manera indefinida
y ese aumento es cada vez más rentable a la hora de conseguir crecimiento económico.
En términos de análisis económico, el conocimiento se diferencia de los recursos físicos como capital o trabajo
en cómo se comporta el rendimiento de la producción al aumentar la cantidad de recurso. Al ir incrementando los
recursos físicos de manera constante, la producción también se va incrementando, pero cada vez en menor medida.
Es lo que se da en llamar “rendimientos decrecientes” de escala. En cambio, para el conocimiento ocurre lo
contrario. Un aumento constante en el recurso conocimiento provoca un aumento cada vez mayor de la
producción. Se dice que presenta “rendimientos crecientes” de escala.
Esta característica peculiar del conocimiento dio lugar al desarrollo a partir de los años 80 de una nueva línea
en la economía del crecimiento, liderada por el economista de Stanford Paul M. Romer
(http://www.stanford.edu/~promer/). En esa “New Growth Theory”, el conocimiento tomaba un papel de variable
fundamental en la explicación del crecimiento de la economía. Aún hay discusión entre los economistas sobre qué
modelo concreto de los muchos posibles explica mejor el crecimiento, pero lo que parece claro es que la capacidad
de creación y de utilización del conocimiento es imprescindible si queremos que nuestras economías crezcan (véase
para una excelente introducción a las teoría económica del crecimiento el libro Apuntes de crecimiento económico
del economista catalán de la Columbia University Xavier Sala-i-Martin). Es decir, que la gestión del conocimiento
es necesaria también para el crecimiento de la economía.
Sin embargo, el crecimiento por el crecimiento no debe ser el único criterio. A veces es mejor sacrificar un poco
de ese crecimiento para que sus efectos se distribuyan de manera menos desigual en la sociedad. Quizá esa sea la
única manera en que el crecimiento sea realmente sostenible. Una gestión del conocimiento global debe tener en
cuenta también ese tipo de consideraciones.
Agustí Canals
Know-org
63
56. Evitar el modelo WORN
Es preciso evitar que se invierta demasiado tiempo y esfuerzo en explicitar un conocimiento de manera exhaustiva
si la probabilidad de necesitarlo es baja.
(Tiempo estimado de lectura: 3 minutos)
Uno de los objetivos primordiales de la gestión del conocimiento es conseguir que el conocimiento que existe
en la organización se haga accesible a todos los miembros de la misma que lo necesiten en su tarea. Para ello, resulta
muy útil que, cuando la naturaleza del conocimiento en cuestión lo permita, éste sea explicitado en bases de datos
y documentos. Si estos elementos están bien organizados y existen sistemas que permitan encontrar lo que se busca
en ellos, la información que permite reutilizar el conocimiento ya creado será fácilmente accesible a quien la
necesite.
Sin embargo, esa “captura” del conocimiento es algo que requiere una dedicación en tiempo y en esfuerzo por
parte de quienes han creado o utilizado por primera vez ese conocimiento. En primer lugar, hay que intentar
“formalizar” y “codificar” al máximo el conocimiento para que pueda ser interpretado por los demás. Eso es un
esfuerzo añadido, ya que muchas veces no es necesario formalizar a la hora de utilizar el conocimiento. Los que
hemos dado clase, por ejemplo, somos conscientes de que no es lo mismo saber resolver un problema que explicar
con claridad cómo se resuelve: lo segundo requiere saber transmitir cómo lo resolvemos utilizando los códigos que
puedan ser entendidos por quienes reciben la explicación. En segundo lugar, hay que dedicar un tiempo precioso a
redactar documentos, introducir información en bases de datos, etc.
Compartir conocimiento es algo que, si no se hace de manera voluntaria, difícilmente se hace bien. Por tanto
hay que tener en cuenta que estamos pidiendo un esfuerzo complementario y valorarlo y facilitarlo en la medida
de lo posible. Ya hemos sugerido alguna vez que esa actividad debería formar parte de los objetivos de los
trabajadores del conocimiento y, por tanto, de los indicadores que determinen su progresión profesional y
reconocimiento en la organización. También hemos comentado en alguna ocasión que hay que integrarla al
máximo en los procesos de trabajo habituales. Hay que conseguir que al mismo tiempo que se utiliza el
conocimiento, ya se ponga a disposición de los demás para que también puedan usarlo. Así la compartición se
convierte en algo consubstancial a la tarea diaria en lugar de un trabajo suplementario.
Pero creo que hay otro factor a tener en cuenta: hay que saber encontrar el justo equilibrio entre lo que hay que
explicitar y lo que no. Si pretendemos que sea registrado absolutamente todo lo que se aprende en un proyecto,
habrá que dedicar mucho tiempo y un gran esfuerzo y el resultado serán un conjunto de documentos y registros
que no tenemos ninguna seguridad de que vayan a servir para algo en el futuro. Éste es el que algunos llaman el
“modelo WORN” de gestión del conocimiento. El significado del término WORN proviene de las iniciales de la
expresión: Write once, read never (“Escribir una vez, no leer nunca”).
A mi modo de ver, para evitar eso hay que identificar cuáles son los mínimos elementos clave que hay que
registrar en bases de datos y documentos para cada proyecto. El objetivo debe ser optimizar el grado de
conocimiento que se explicita manteniendo a un nivel razonable el trabajo que eso supone. Aplicando el llamado
“Principio de Pareto” o “Regla 80-20”, podemos pensar que aproximadamente registrando el 20% del conocimiento
utilizado en un proyecto, si lo hemos seleccionado bien, tendremos cubierto un 80% de las ocasiones en que se
necesite.
De esta manera podemos lograr minimizar el tiempo y el esfuerzo dedicado a la gestión del conocimiento
manteniendo su eficacia a niveles satisfactorios. Y así, además, evitamos que el compartir conocimiento se vea como
una carga y, por tanto, que se haga mal o, simplemente, deje de hacerse.
Agustí Canals
Know-org
64
57. Olfato de gol
A veces damos por supuesto que algunas habilidades forman parte del conocimiento tácito cuando eso no es del
todo cierto.
(Tiempo estimado de lectura: 3 minutos)
Una de las discusiones recurrentes en el ámbito de la gestión del conocimiento es la que se refiere a la naturaleza
del conocimiento tácito. Mientras que el inventor del término, Michael Polanyi, dejó claro en sus escritos que el
conocimiento tácito, por su propia naturaleza, no se puede explicar (y, por tanto, explicitar), otros autores como
Nonaka y Takeuchi propugnan la transformación de conocimiento tácito a explícito y viceversa como la base de la
gestión del conocimiento.
Probablemente la clave esté en que la misma distinción entre tácito y explícito no está tan clara como se da a
entender a veces. El conocimiento siempre es una mezcla de elementos entrelazados, unos más tácitos y otros más
explícitos. La posibilidad de explicitarlo más o menos depende de la capacidad propia de quien posee el
conocimiento y de la disponibilidad de un código adecuado. Pensemos, por ejemplo, cómo algunos artistas son
capaces de expresar sus sentimientos a través del arte, o bien, qué difícil sería para los cosmólogos explicar sus
intuiciones sobre el universo sin recurrir al lenguaje de las matemáticas.
Por eso en la práctica de la gestión del conocimiento en las organizaciones es necesario plantearnos siempre si
es posible explicitar un poco más el conocimiento que se posee. Un caso muy interesante se presentaba no hace
mucho en un artículo de Simon Kuper en el Financial Times titulado “How to score goals—and lots of them” (FT,
29/03/03) sobre el llamado “olfato de gol” de algunos futbolistas.
La creencia popular es que el olfato de gol es un don misterioso, casi sobrenatural, que algunos jugadores
poseen. Por eso los goleadores reciben a veces sobrenombres como “el brujo” Quini o “mágico” González. Sin
embargo, en el citado artículo se demuestra que grandes goleadores como Gary Lineker, Rivaldo o Jimmy Floyd
Hasselbaink son capaces de explicar racionalmente muchos aspectos de su habilidad de cara al marco contrario. Por
ejemplo, Gary Lineker explica que su estrategia consistía en estar constantemente corriendo hacia los espacios libres
en el área de meta. Así, cuando le llegaba un balón disponía de las décimas de segundo necesarias para poder
rematar con efectividad. No se trata de estar, milagrosamente, “en el lugar adecuado en el momento preciso”, sino
de “estar siempre en el lugar adecuado”. Otros, como Rivaldo, encuentran esas décimas de segundo de ventaja
gracias a su dominio del balón y su habilidad en el regate. Para Hasselbaink, en cambio, lo fundamental es que,
cuando está en el área iniciando una jugada de gol, tiene en su mente el mapa exacto de las posiciones de todos los
demás jugadores implicados, especialmente el portero, y, por tanto, una idea clara de lo que tiene que hacer para
marcar.
Así, pues, si tenemos un “goleador” en nuestra organización, es bueno que lo sepamos y que podamos
localizarle cuando le necesitamos. Pero intentemos también que nos cuente lo máximo posible sobre sus
habilidades. De esta manera quizá podremos generar una buena cantera de nuevos valores y nos ahorraremos
fichajes multimillonarios—y no por ello siempre efectivos—en el futuro.
Agustí Canals
Know-org
65
58. "Aprender haciendo"... otra cosa
Un estudio demuestra que el “aprender haciendo” una tarea puede mejorarse si se combina con el aprendizaje de
otra tarea relacionada.
(Tiempo estimado de lectura: 3 minutos)
El llamado learning by doing o “aprender haciendo” es muy importante en las organizaciones, especialmente
para la transferencia o la creación de conocimiento tácito. Se produce cuando el proceso de aprendizaje se va
efectuando al mismo tiempo que la realización de la tarea para la que dicho aprendizaje debe servir. Evidentemente,
ello conlleva un proceso de prueba y error que hace que la tarea en cuestión no se realice al principio con la
eficiencia deseada y a menudo requiere la supervisión por parte de alguien con más experiencia. A pesar de eso, para
muchas habilidades se demuestra como un método bastante eficiente.
Podemos preguntarnos, sin embargo, si es realmente el mejor sistema. ¿Hay otra manera mejor, más eficiente
de aprender, en estos casos? Cierto es que cada persona tiene su propio estilo de aprendizaje y que para unos el
método será más indicado que para otros en función de sus características cognitivas, pero parece que
especialmente, como hemos dicho, para la incorporación de conocimiento tácito más o menos funciona. No
estamos hablando, por tanto, de la adecuación del método de aprendizaje al individuo concreto, sino de si es
posible, para cualquier individuo, mejorar el “aprender haciendo”. Estos días han llegado a mis manos un artículo
publicado hace pocos meses en la revista Management Science que apunta a una respuesta afirmativa.
En dicho artículo, titulado Learning by Doing Something Else: Variation, Relatedness, and the Learning Curve
(Management Science, 49, 1, Jan 2003), los autores dan cuenta de una investigación que han llevado a cabo
comparando la efectividad del proceso de aprendizaje en tres circunstancias distintas. En el primer caso, los sujetos
se focalizan exclusivamente en la tarea que deben aprender a realizar y “aprenden haciendo”. En el segundo, además
de trabajar en la tarea principal, se les proponen también otras tareas colaterales que están relacionadas con la
primera pero que también deben aprender a hacer. Finalmente, en el tercer caso se les proponen otras tareas
colaterales que tampoco conocen, pero en este caso no están en ningún modo relacionadas con la principal.
En el estudio realizado se utiliza un contingente de voluntarios cuyo objetivo será aprender a jugar al Go
enfrentándose a un ordenador. Los voluntarios se dividen en tres grupos y cada uno de ellos en equipos de tres
personas. Mientras que los equipos del primer grupo sólo juegan al Go, los del segundo grupo juegan también al
juego llamado Reversi (juego de tablero que tiene ciertas similitudes con el Go) y los del tercer grupo juegan al
Cribbage (un juego de cartas totalmente diferente del Go).
Los resultados son muy interesantes: mientras que el primer y el tercer grupos muestran una efectividad similar
en el proceso de aprendizaje del Go, el segundo grupo obtiene unos resultados apreciablemente mejores. Según los
autores, la razón más probable sea que a través del aprendizaje de una tarea similar se puedan extraer conocimientos
generales que luego pueden ser aplicados a la primera tarea reduciendo la curva de aprendizaje.
Creo que es algo a tener muy en cuenta, especialmente en las organizaciones donde se cree que la máxima
eficiencia se consigue con puestos de trabajo fijos e inamovibles ocupados por “especialistas”.
Por cierto, encontré este artículo buscando... otra cosa.
Agustí Canals
Know-org
66
59. Conocer es también saber interpretar
A menudo es más efectivo saber interpretar bien poca información que disponer de grandes cantidades de ella.
(Tiempo estimado de lectura: 3 minutos)
Hace pocos días participé en Bruselas en una reunión de trabajo del consorcio encargado de un proyecto
europeo en el cual la gestión del conocimiento juega un papel muy importante. Entre los participantes había varios
especialistas en gestión del conocimiento, sobre todo desde un punto de vista tecnológico, provenientes de varios
países europeos. Un comentario bastante generalizado era que la gestión del conocimiento está perdiendo fuerza
como campo de investigación frente a nuevos ámbitos más “de moda” como la biotecnología o la bioinformática.
En una situación económica como la actual, eso significa más dificultades a la hora de competir por los recursos
procedentes de las empresas y de las instituciones públicas.
Pero, por otra parte, me da la sensación de que tanto en las escuelas de negocios como en la mayoría de las
empresas, está calando cada vez más el mensaje de la importancia clave del conocimiento en la gestión de las
organizaciones. No ya como algo relegado a los departamentos de sistemas de información o de recursos humanos,
sino como un elemento fundamental a todos los niveles, empezando por la alta dirección estratégica.
¿Estamos ante una contradicción? Yo creo que no. La clave está en qué entendemos por conocimiento y por su
gestión. El pasado mes de mayo aparecía en la revista Harvard Business Review un artículo titulado “The High Cost
of Accurate Knowledge”, de Kathleen Sutcliffe y Klaus Weber, de la University of Michigan Business School, que
puede darnos alguna pista.
En dicho artículo se analizan los resultados de un estudio empírico realizado sobre varias empresas
comparando los resultados obtenidos con el “conocimiento” sobre su entorno competitivo de los altos ejecutivos
encargados de tomar las decisiones estratégicas. En principio, parecería que cuanto más “conocimiento” tengan esos
ejecutivos, mejores y más fundamentadas decisiones podrán tomar, y mejores van a ser los resultados. Sin embargo,
las conclusiones del estudio son que, a nivel estratégico, es menos importante el nivel de precisión en el
“conocimiento” del entorno competitivo de los altos directivos que la manera en que son capaces de interpretar la
información que reciben sobre su entorno y de trasladar esas interpretaciones a sus respectivas organizaciones.
Para mí, la clave está en que lo que se llama “conocimiento” en el artículo (y también en el párrafo anterior) es
más bien información. El verdadero conocimiento es, también, lo que permite una correcta interpretación de la
información y el comunicar esa interpretación de manera adecuada para que la organización actúe en
consecuencia. Es un conocimiento de carácter más tácito y más difícil de adquirir, pero—precisamente por eso—
fuente también de ventajas competitivas más sostenibles.
Desde este punto de vista, en un entorno rápidamente cambiante como el actual y en unas organizaciones cada
vez más complejas, la gestión del conocimiento es más necesaria que nunca. Los resultados del estudio son otro
aviso para aquellos que aún creen que la gestión del conocimiento es tan sólo cuestión de tecnología, bases de datos
o, incluso, información.
Agustí Canals
Know-org
67
60. Organizar la GC
No todas las empresas pueden permitirse el lujo de construir toda una estructura profesional para gestionar el
conocimiento.
(Tiempo estimado de lectura: 3 minutos)
Hace poco cayó en mis manos un artículo escrito por Thomas Davenport—uno de los grandes “gurús” de la
gestión del conocimiento—y Sven Völpel en el Journal of Knowledge Management (Vol. 5, Núm. 3, 2001). En uno
de los apartados del artículo “The rise of knowledge towards attention management”, los autores describen las
capacidades y funciones necesarias para una adecuada gestión de conocimiento en una organización.
Se requieren, según ellos, distintas funciones a tres niveles distintos. En el nivel superior, con gran visibilidad,
está el rol de CKO (Chief Knowledge Officer). Dicha función tiene gran importancia operativa como cabeza visible
de todas las funciones relacionadas con el conocimiento, pero también tiene una función simbólica vital: que el
máximo responsable de la gestión del conocimiento forme parte de la alta dirección es un signo inequívoco de la
importancia que la organización confiere al tema.
En el segundo nivel encontraríamos un grupo de mandos intermedios que deben actuar como project
managers. Deben ser profesionales que entiendan el conocimiento y cómo se usa en la organización y deben ser
capaces de fomentar la creación, la compartición y el uso del conocimiento entre los demás empleados.
El tercer nivel estaría formado por todos aquellos empleados que trabajan con el conocimiento en su día a día
y pueden tener funciones muy distintas. Entre ellas, por ejemplo, facilitar la creación de redes y comunidades de
práctica, crear y alimentar los registros de los repositorios de conocimiento, construir y mantener las aplicaciones
tecnológicas relacionadas con el conocimiento, incorporar la orientación al conocimiento en las políticas de
recursos humanos, etc.
Mientras estaba leyendo el artículo, pensé lo que probablemente muchos de vosotros estéis pensando ahora:
esto está muy bien para grandes empresas con un elevado presupuesto para la gestión del conocimiento, pero en
organizaciones más reducidas o sin muchos recursos para dedicar a la gestión del conocimiento, ya es muchísimo
poder disponer de una persona dedicada a pleno tiempo a la gestión del conocimiento. En la mayoría de las
organizaciones construir esa estructura de tres niveles es algo impensable, una quimera. Es necesario entonces
estrujarnos un poco el cerebro para conseguir gestionar el conocimiento casi con la misma gente que ya está
trabajando en la organización, y sin que dejen de hacer lo que están haciendo.
El reto no es fácil, pero pueden conseguirse resultados sorprendentes actuando con inteligencia. Por ejemplo,
utilizando adecuadamente las herramientas tecnológicas que existen. Hoy en día existen productos no muy caros y
realmente interesantes. La clave está en conocer antes de escoger el producto qué queremos hacer con él. Otra receta
que suele funcionar es rediseñar los procesos de trabajo para que éstos incorporen tareas y actividades relacionadas
con la gestión del conocimiento. De esta manera, la creación y captura de conocimiento se realizan como parte del
mismo proceso de trabajo habitual, sin significar una carga adicional. Y lo más importante (aunque a menudo lo
más difícil), introducir poco a poco en la cultura de la organización la idea de la importancia del conocimiento, y
de que el tiempo dedicado a crear, compartir y utilizar el conocimiento no es tiempo perdido sino todo lo contrario.
En definitiva, como dice Davenport, vamos hacia la economía de la atención: de nada nos sirve el conocimiento que
tengamos si no tenemos tiempo para dedicarle nuestra atención.
Agustí Canals
Know-org
68
61. La Gestión del Conocimiento en las nuevas organizaciones
El papel actual del conocimiento nos ha hecho preocupar por gestionar ese recurso, pero es también una de las
causas fundamentales de que las organizaciones estén cambiando.
(Tiempo estimado de lectura: 6 minutos)
Las nuevas organizaciones que se vislumbran son muy diferentes de las existentes en la economía industrial. Y
debemos darnos cuenta de eso si queremos que la gestión del conocimiento dé los frutos deseados. ¿Cómo son esas
nuevas organizaciones? Creo que aún es pronto para poder dar una respuesta completa, pero podemos detectar
algunos indicios. Hay una serie de características que podemos observar en las más avanzadas organizaciones
actuales que afectan considerablemente la manera en que se debe abordar la gestión del conocimiento.
Analizaremos algunas de ellas.
Primero, el conocimiento se ha convertido en un factor central. Por supuesto, siempre ha habido conocimiento
en las empresas, pero ahora el papel preponderante a la hora de crear valor ha pasado de los activos materiales a los
inmateriales. Eso hace que la gestión del conocimiento no pueda ser una función aislada, ni tan sólo una actividad
transversal. Es necesario que la preocupación por el conocimiento esté presente en todas las decisiones tomadas en
la organización. En el futuro, el término “gestión del conocimiento” debería poder desaparecer, puesto que el
concepto ya se debería haber incorporado a todos los niveles de decisión.
Segundo, las organizaciones son cada vez más dinámicas. El cambio es permanente y, además, cada vez más
rápido. No hay tiempo de recoger todo el conocimiento de una organización en documentos o en bases de datos,
puesto que cuando lo hayamos hecho, se habrá vuelto obsoleto. Hay que fomentar culturas organizativas flexibles
y adaptables, que faciliten en cada momento la generación instantánea del conocimiento adecuado para resolver el
problema que se presenta. Y, a veces, preciso sacrificar la exhaustividad en el almacenaje de conocimiento en aras
de la efectividad en su aplicación.
Tercero, las organizaciones ya no son entes aislados, con fronteras definidas. La economía del conocimiento se
asimila más a una red con múltiples nodos interrelacionados en mayor o menor grado. Las relaciones entre
organizaciones y entre personas son de carácter temporal y a menudo dependen del proyecto concreto que estén
realizando. Los equipos se hacen y deshacen en función de las necesidades. Ya no sirven las rígidas estructuras
jerárquicas. Todo eso tiene claras implicaciones a la hora de fomentar la creación y la compartición de
conocimiento. Y también presenta grandes retos a los sistemas de propiedad intelectual.
Cuarto, las organizaciones son—como ya hemos comentado alguna vez—sistemas complejos. Y las teorías de
la complejidad nos enseñan que en un sistema complejo no es posible planificarlo todo desde arriba confiando que
nuestras acciones van a producir los efectos deseados. Las organizaciones no son como máquinas en las cuales
sabemos qué va a pasar cuando movemos una palanca. Empresas e instituciones se parecen más a ecosistemas
naturales, con delicados equilibrios en los cuales los flujos de conocimiento juegan un papel primordial. En lugar
de querer imponer grandes proyectos de gestión del conocimiento desde arriba, vale la pena observar cuáles son los
mecanismos del sistema y aprovecharlos potenciando los que nos interesan.
Y, quinto, aparece un nuevo tipo de profesionales. Los nuevos profesionales del conocimiento que describe
Richard Florida en su libro The Rise of the Creative Class son fundamentales en las organizaciones actuales. Para
asegurar la creación de conocimiento, las empresas deben entender que no se les pueda tratar como obreros de la
era industrial Y eso significa, desde ofrecerles retos intelectuales en el trabajo que les motiven suficientemente, hasta
procurar que la empresa esté radicada en un lugar que les haga posible vivir en un entorno culturalmente
estimulante.
A pesar de algunos augurios pesimistas, pues, la Gestión del Conocimiento no está acabada. Tiene, eso si, que
adaptarse a las nuevas organizaciones que ella misma está contribuyendo a construir. Estamos sólo al principio de
un reto apasionante.
Agustí Canals
Know-org
69
Descargar