Avatares Conversacionales 3D en Tiempo Real para su Integración

Anuncio
Avatares Conversacionales 3D en Tiempo Real para
su Integración en Interfaces de Usuario y Entornos TV
Amalia Ortiz (1), Jorge Posada (1), Karmelo Vivanco (2),
Miguel G. Tejedor (3), Eva Navas (4), Inma Hernaez (4)
(1) Departamento de Edutainment y Turismo (VICOMTech)
(2) Baleuko
(3) Talape
(4) Universidad del Paı́s Vasco/Euskal Herriko Unibertsitatea (Grupo Aholab)
[email protected]
Resumen
Las interfaces actuales no permiten al usuario interactuar con
el sistema de una manera natural e intuitiva. Surge la necesidad
de crear un nuevo lenguaje de comunicación hombre-máquina.
Para ello, se están desarrollando las denominadas ”Interfaces
Conversacionales de Usuario”, que integran un asistente virtual
3D capaz de realizar funciones del sistema. En este articulo se
presenta un proyecto industrial (*) basado en este tipo de interfaces, describiendo su modo de funcionamiento, la importancia
de unir el uso de la sı́ntesis de voz a una representación gráfica
tridimensional y las aplicaciones que puede tener.
(*) Este trabajo ha sido parcialmente financiado por el programa INTEK 2001 del Gobierno Vasco, código CN01BA09.
1. Introducción
actualmente encuentran importantes restricciones tecnológicas
en el desarrollo de aplicaciones. Algunas de las caracterı́sticas
que hay que tener en cuenta durante el desarrollo para su
uso en aplicaciones multimedia son: peso poligonal bajo,
capacidad emocional, flexibilidad a la hora de ser integrado en
otras plataformas (PC’s, PDA’s, TV Digital, etc.) y sobre todo,
respuesta en tiempo real, ya que las animaciones pregrabadas
no sirven si se desea una comunicación interactiva.
En el apartado 2 se describe la importancia del uso de emociones y el empleo de lenguas minoritarias en las nuevas tecnologı́as. A continuación, en el apartado 3, pasamos a explicar
el proyecto en el que estamos trabajando (ABATEUS), con una
descripción del sistema desarrollado y sus funcionalidades. Por
último, en el apartado 4, se describen algunas de las posibles
aplicaciones que pueden tener este tipo de interfaces, tanto en
general como para nuestro proyecto en concreto.
Recientemente la influencia de los ordenadores ha crecido
hasta el punto de convertirse en una herramienta muy útil y
utilizada por la mayorı́a de las personas, no sólo en su trabajo,
sino también en su tiempo de ocio. Con este crecimiento, la
tecnologı́a ha ido también evolucionando y es cada vez más
potente y novedosa, pero también más compleja y difı́cil de
entender para el usuario medio. Es ası́ como surge la necesidad
de realizar un cambio en los sistemas y métodos de interacción
hombre-maquina[1]. Hoy en dı́a, la forma más común de
realizar cualquier tarea en un ordenador personal esta basada
en el paradigma WIMP (Windows, Iconos, Menús y Punteros).
Sin embargo, este modo de actuación es insuficiente para
proporcionar al usuario una interfaz natural e interactiva, que le
permita un uso eficiente de las nuevas tecnologı́as.
La forma de comunicación natural entre humanos esta
basada en el habla. Las innovadoras interfaces de usuario que
actualmente están siendo desarrolladas, incorporan módulos
de sı́ntesis y reconocimiento de voz. Una manera adicional
de enriquecer estas nuevas interfaces es la integración en el
sistema de un asistente virtual 3D, más comúnmente denominado ’avatar’, con capacidad de habla en tiempo real. En estas
nuevas interfaces, llamadas ”interfaces conversacionales de
usuario”, la figura del avatar juega un papel muy importante.
Los avatares son personajes virtuales, representados por
el cuerpo entero o únicamente por la cabeza, que pueden
simular aspectos de la comunicación humana (oral o no oral), y
Figura 1: Consola de ABATEUS. Cabeza de BetiZu
2. El proyecto ABATEUS
El objetivo global del proyecto ABATEUS es implementar una
plataforma para el desarrollo de avatares parlantes en euskera,
Figura 2: Arquitectura del Sistema.
basados en los personajes animados de dos productoras de
televisión y explorar formas innovadoras de utilizarlos en
aplicaciones multimedia y Televisión Digital, ası́ como en
su entorno de producción televisiva tradicional. El proyecto
está basado en un primer prototipo de plataforma de avatares,
que existe actualmente para otras lenguas.
Para el desarrollo del proyecto se ha formado un consorcio
integrado por la asociación VICOMTech, el Grupo Aholab
de la Universidad del Paı́s Vasco/Euskal Herriko Unibertsitatea(UPV/EHU) y las productoras Baleuko y Talape.
Baleuko y Talape cuentan con una amplia experiencia
en animación 3D. Baleuko ha producido, entre otros, uno de
los primeros largometrajes 3D en Europa. Produce también
alrededor de 8 minutos semanales de BetiZu, una serie de
animación 3D para el canal de televisión vasco, ETB, que se ha
convertido en uno de los programas televisivos para niños más
vistos en el Paı́s Vasco.
Baleuko y Talape están interesados en el área de gráficos
por computador y su aplicación para televisión, en particular,
para el personaje BetiZu, una vaca espacial que habla euskera
[Figura 1]. El proyecto ABATEUS ayudará en el proceso
de producción de Baleuko a automatizar la animación facial
de sus personajes en las secuencias habladas y permitirá el
uso de su personaje estrella en otras áreas innovadoras y
poco convencionales. Esta tecnologı́a puede mejorar el actual
escenario de modelado, animación y producción de contenidos
televisivos y extender las actividades de las empresas a otros
canales de comunicación como puede ser Internet o CD’s
multimedia.
VICOMTech es responsable de la plataforma avatar,
especialmente de la sincronización entre la animación facial
y el audio, y de los algoritmos de gráficos 3D. Dentro de este
área es importante destacar la relevancia de las expresiones
emocionales en la animación facial ası́ como de la implementación de las reglas de comportamiento, para dar al avatar
una movilidad creı́ble y poder integrarlo en aplicaciones de TV.
VICOMTech colabora en estos proyectos con GRIS y ZGDV
(Departamento de Digital Storytelling) compartiendo sus
conocimientos en el área de avatares, en la que ambos grupos
han tenido una gran experiencia. ZGDV, GRIS y VICOMTech
son miembros de la INI-GraphicsNet.
El grupo Aholab, de la UPV/EHU, está desarrollando un
sintetizador de voz en Euskera capaz de soportar carga emocional. Su primera versión, sin carga emocional, ya ha sido integrada en ABATEUS.
Actualmente el primer prototipo es completamente funcional y capaz de sintetizar textos en euskera con el personaje de
BetiZu. El trabajo en sı́ntesis de voz emocional, calidad de renderización e integración en otros módulos o plataformas está en
curso.
2.1. Descripción del sistema
Como se puede ver en la Figura 2, la arquitectura del sistema está dividida en tres módulos fundamentales que explicamos a continuación:
2.1.1. Módulo de Sı́ntesis de Voz (Aholab)
El funcionamiento del sistema es el siguiente: el texto
etiquetado de entrada (que puede provenir de múltiples posibles
fuentes: teclado, Internet, archivo), contiene el texto que se
va a pronunciar, más unas etiquetas especiales que indican las
emociones con que se deben emitir ciertas partes del texto,
ası́ como eventos emocionales complejos relacionados tales
como risas, lloros, etc.
El módulo de preprocesado interpreta ese texto etiquetado
y extrae las emociones que se transfieren a la plataforma gráfica
para controlar la expresión de la cara. El texto a pronunciar,
ası́ como las emociones y los eventos relacionados con ellas
se transfieren también al procesador lingüı́stico del conversor
texto a voz.
El procesador lingüı́stico calcula la cadena de sonidos
necesaria para emitir el mensaje contenido en el texto con la
emoción indicada por las etiquetas, asignando a cada fonema
sus caracterı́sticas prosódicas, principalmente su duración
y entonación. Estas caracterı́sticas prosódicas, junto con la
cadena de sonidos a pronunciar (fonemas y sonidos asociados a
los eventos emocionales) se transfieren a la plataforma gráfica
y al módulo motor de sı́ntesis de voz en Euskera.
Finalmente el motor de sı́ntesis genera la señal de voz
correspondiente, que se lanza simultáneamente a la secuencia
animada de imágenes calculada por la plataforma avatar.
Una de las labores de Aholab es la grabación y la creación
de una Base de Datos emocional con la voz de BetiZu usando
los estudios de grabación de Baleuko.
2.1.2. Módulo de Animación y Sincronización (VICOMTech)
Por otro lado, para reproducir la salida gráfica se necesitan
algunos de los parámetros del sintetizador de voz con el fin de
coordinar los gestos faciales de habla. Principalmente son la
frecuencia fundamental o pitch y la duración de cada fonema,
aunque también se incluyen sonidos y eventos emocionales
basados en marcas o etiquetas del texto.
Con estos datos, se asociará cada fonema a su visema
correspondiente -equivalente visual del fonema- mediante
técnicas avanzadas de morphing [2] y con base en ’objetivos
morph’ básicos (morph targets) que representan posiciones
preestablecidas del rostro. La animación 3D gestual del habla
está basada en los parámetros procedentes del sintetizador junto
con la aplicación de una serie de reglas de comportamiento
internas (asociadas con emociones), y la combinación de los
objetos básicos, establecidos previamente, y combinados con la
técnica morphing. Cada objeto es una representación 3D de la
cara en una posición determinada (ej. Boca abierta en forma de
O). De esta manera, se podrán representar cambios a lo largo
del tiempo como una interpolación de figuras dadas.
2.2. Funcionalidades de ABATEUS
A continuación se presentan algunas de las principales funcionalidades que ya ofrece la plataforma avatar desarrollada
para el proyecto:
MULTILUNGUALIDAD :
Un resultado clave de nuestro proyecto es la inclusión
del euskera en la plataforma de desarrollo del avatar.
Ası́, el sistema está disponible para el inglés, el castellano y el alemán. Para estas lenguas la voz es sintetizada
utilizando el sistema de sı́ntesis público MBROLA [3].
Para el caso del euskera, como ya se ha mencionado, se
incorpora el sistema de sı́ntesis AhoTTS [4]
ANIMACIÓN FACIAL :
Las partes faciales que son habitualmente animadas
en el avatar son: la cabeza, los labios, los ojos, las
pupilas, las cejas y las pestañas. Para este trabajo, se
utilizan también animaciones propias del ’cartoon’,
como el movimiento de las orejas de Betizu, la nariz, etc.
Algunas de las animaciones simplemente se realizan generando una deformación individual más una
traslación o desplazamiento en una determinada trayectoria, como es el caso de las pupilas o el movimiento
de la cabeza. Otras, como las de los labios, se realizan
utilizando técnicas de morphing.
Los objetos básicos son determinados para un personaje
particular mediante diversas posiciones faciales, representadas
por mallas poligonales en ficheros con el formato estándar de
Alias Wavefront. Estas posiciones faciales, pueden ser fácilmente producidas en el entorno usual de trabajo de Baleuko y
Talape.
2.1.3. Módulo de Adaptación de Geometrı́as (VICOMTech)
Este es el módulo encargado de adaptar nuevos personajes
a la plataforma a partir de los ficheros de mallas obtenidos en
los entornos habituales de trabajo de Baleuko y Talape para
animación 3D. La generación de los archivos de mallas es
completamente automática, puesto que éste es un estándar de
facto para la descripción de mallas poligonales en la industria
de animación gráfica. Para cada personaje debe generarse un
número preestablecido de posiciones faciales estáticas 3D.
A partir de estos archivos, el módulo adaptador de mallas
poligonales faciales genera una representación interna de la información geométrica apta para el procesado y la aplicación
de las técnicas de morphing necesarias para la animación en
la plataforma.
Figura 3: Técnica Morphing.
Para representar una animación con esta técnica, lo
primero que hay que hacer es encontrar un apropiado
conjunto de objetos básicos (Bi en la Figura 3 y en la
fórmula 1), de tal manera que todas las expresiones
faciales necesarias para producir la animación, se
puedan obtener a partir de una combinación de estos
objetos básicos. Para este proyecto se han definido 14
objetos básicos diferentes.
La animación se representa por una geometrı́a base (ej:
malla headDefault) y un conjunto de keyframes o vector
de pesos. Cada valor del vector de pesos corresponde al
valor de interpolación (ai en la Figura 3 y en la fórmula
1). Los objetos básicos están definidos por una serie de
vértices , vij que se mueven a lo largo del tiempo para
producir la animación. Las secuencias de animaciones
se van a generar realizando las operaciones definidas en
la fórmula 1 según los valores de entrada, tal y como se
observa en la figura 3.
B(a) =
n−1
X
i=0
ai B i = (
n−1
X
ai vij )
(1)
i=0
EMOCIONES FACIALES :
Una de las principales ventajas de contar con un
avatar 3D conversacional es la de generar al usuario la
ilusión de estar interactuando con el sistema como si
estuviera comunicándose con una persona real. Esto se
consigue imitando diálogos y formas de movimiento
de las comunicaciones entre humanos. Un ejemplo del
empleo de estas estrategias de comunicación nos lo
proporcionan los sistemas de ’Digital StoryTelling’[5].
DIFERENTES PERSONAJES :
El sistema es flexible, de tal forma que contiene un
módulo especial que permite el cambio de un avatar a
otro de una manera sencilla para el usuario. Esto permitirá a la empresa la utilización futura de la plataforma
ABATEUS, no sólo para su personaje protagonista,
BetiZu, sino para cualquiera de ellos. Ası́ mismo, la
arquitectura del sistema soporta avatares de carácter
humano o de dibujo animado 3D.
TEXTURAS Y MATERIALES :
El sistema soporta materiales diferentes y texturas,
incluyendo fotografı́as de personas. Con dos o tres fotos
es posible reproducir un avatar con una apariencia real,
aunque actualmente este proceso requiere una intensa
intervención manual del programador.
EVENTOS :
El sistema es capaz de captar eventos de usuario tales
como ”Parar!.o ”Hablar!”. La lı́nea de investigación
está centrada actualmente en los eventos emocionales,
como risas, suspiros, sorpresa, llanto, etc. que se
introducen manualmente en el texto de entrada.
3. Lı́neas de aplicación
El prototipo podrá ser fácilmente extensible a cualquiera de
los siguientes escenarios:
La sincronización del habla con la animación facial, y la
simulación de expresiones emocionales son actualmente
áreas de investigación muy activas y son elementos
claves en el proceso de comunicación. La expresividad
y las reglas de comportamiento del avatar son tan importantes para conseguir captar la atención del usuario
como una buena calidad de voz e imagen.
Las emociones implementadas en el avatar son un
subgrupo de las emociones definidas según MPEG-4:
alegrı́a, tristeza, enfado y neutral, con un control
paramétrico de la intensidad de cada una de ellas.
Figura 4: BetiZu en la web.
ALTA RESOLUCIÓN :
El objetivo del proyecto es permitir, tanto como sea
posible, el soporte de modelos de alta resolución.
La investigación se centra en soportar las mismas
resoluciones utilizadas por la empresa en los procesos
de animación 3D, sin perder calidad en una ejecución
rápida y sincronizada con el audio. Actualmente utilizan
modelos de aproximadamente 25000 polı́gonos para las
animaciones faciales finales, aunque durante el proceso
de animacion trabajan con modelos menos pesados.
La plataforma gráfica, actualmente es capaz de mover
modelos de 5000 polı́gonos. La resolución final utilizada
permitirá al usuario ejecutar el programa en un PC
ordinario con tarjeta gráfica sin ninguna especificación
especial.
3.1. Internet
Actualmente, Internet es un medio bien conocido y que
esta al alcance de muchos usuarios. Es una vı́a rápida de
información, pero también de comunicación.
Las redes no son exclusivamente utilizadas hoy en dı́a
como medio de búsqueda de información sobre múltiples
temas, sino también como vı́a de comunicación con otros
puntos del mundo, ya sea a través del correo electrónico
como a través del chat. La utilización de avatares en la red
[6], personaliza la conexión del visitante, haciéndola más
natural. El papel del avatar integrado en una página web ofrece,
entre otras, funcionalidades interactivas como: asistentes en
e-commerce o e-learning, acompañante y guı́a en los juegos de
red o Tele-presencia en chats.
En nuestro caso[Figura 4], la aplicación consiste en un
lector de noticias de BetiZu para la página web de Baleuko.
Este prototipo ha sido implementado mediante applets de Java.
La animación gráfica se ejecuta en el cliente mientras que la
generación de los archivos de audio se generan en el servidor.
La arquitectura de red está diseñada para que el usuario no
tenga que instalar ningún nuevo programa en su ordenador, de
tal forma que podrá interactuar con BetiZu en el momento de
conectarse a la página. Toda la ejecución es transparente para él.
3.2. Televisión Digital Interactiva
La televisión digital interactiva enriquece la experiencia
de ver televisión, dando al espectador la posibilidad de ser un
agente activo gracias a varias aplicaciones[7], como pueden ser;
Chat, Juegos, E-commerce, Guı́a de programas electrónicos,
etc. El avatar tiene cabida dentro de todas estas aplicaciones
ayudando a generar en el espectador la sensación de estar
realmente interactuando con un personaje real y de una manera
individualizada. Como ejemplo, algunas de las aplicaciones de
avatares para una plataforma televisiva podrı́an ser:
Guı́a a través de la programación televisiva y de los diferentes canales.
el lenguaje de comunicación, el tipo de interfaces y los
servicios interactivos que se les proporcione durante la teleformación[11].
La tele-presencia es esencial para captar la atención del
alumno. Por ello, los avatares ofrecerán un incremento en
la aceptación del sistema de educación, tomando el rol de:
profesor, alumno o compañero, o incluso como guı́a en un
Entorno Virtual Educativo.
En la figura 5 se observa un prototipo con base en un entorno virtual educativo en el que BetiZu actúa como profesora.
El entorno consiste en un espacio tridimensional dividido en
tres zonas o habitaciones que contienen diversos objetos sobre
los que se puede interactuar. El usuario puede moverse por todo
el entorno, siempre en el plano horizontal, pudiendo orientar la
vista en los tres ejes. Se han tenido en cuenta las posibles colisiones que puedan ocurrir entre el visitante y el entorno, de tal
forma que el usuario no podrá atravesar las paredes ni los objetos. La implementación del prototipo esta realizada en Open
Inventor y C++. El principal elemento de interacción entre el
visitante y el entorno es BetiZu. Como se observa en la figura
5, ésta se encuentra en una ventana activa fuera del entorno virtual. Cuando detecta alguna tipo de interacción con el entorno,
averigua de donde viene la orden y realiza las acciones pertinentes, como comenzar una descripción del objeto o explicar
las posibilidades de interacción que ofrece la habitación virtual
en la que se encuentra el usuario.
Personaje que puede interactuar individualmente con el
espectador transmitiendo contenidos interactivos.
Presentador virtual
3.3. Aplicaciones multimedia
Las aplicaciones multimedia, como audio, vı́deo, etc.
son un gran apoyo a la hora de presentar información de
cualquier tipo, educativo, de ocio, etc. Pero muchas veces, no
es suficiente.
Cada vez se está utilizando más el contenido hyper-media
[8], pero sigue faltando el agente inteligente con representación
gráfica, que permita una interacción natural para el hombre.
Dentro del contexto Edutainment (Educación y Entretenimiento) podemos tomar como ejemplo una aplicación multimedia
cuyo objetivo sea contar cuentos a niños. El audio y el vı́deo
son imprescindibles para ello, pero para captar la atención del
espectador, poder personalizar el cuento y hacerlo dinámico,
según indican los estudios realizados sobre Digital Storytelling,
falta la figura del ’cuenta cuentos’[9].
En el contexto concreto del proyecto ABATEUS, un cuentacuentos con la apariencia de Betizu, en el que el niño pudiera
ver cómo su personaje de dibujos animados le cuenta un cuento
personalizado e interactivo, serı́a de gran ayuda para la producción y difusión de la serie. La caracterı́stica de personalización
se consigue gracias a la capacidad de respuesta en tiempo real
del sistema.
3.4. Educación
La interacción estudiante-estudiante, en adición a la
interacción estudiante-contenido y estudiante-profesor, es una
parte a menudo descuidada en la educación a distancia [10].
En este contexto, la motivación de los alumnos variará según
Figura 5: BetiZu integrada en Entorno Educativo.
3.5. Entornos normales de producción para televisión
Las animaciones 3D para televisión actualmente utilizan
algunos de los programas de modelado y animación existentes
en el mercado.
En concreto, las empresas Baleuko y Talape, animan su
serie televisiva, con uno de estos programas comerciales realizándolo de forma manual. Integrando esta tecnologı́a en su entorno actual de producción, se podrı́a ayudar a la automatización
de la animación facial en las secuencias habladas. El módulo de
animación que utilizan, obtendrı́a como entrada, la salida gráfica y el audio sincronizados de la plataforma avatar.
4. Conclusiones y Trabajo Futuro
Los avatares y las interfaces conversacionales de usuario
abren muchas puertas a la interacción hombre-maquina,
proveyendo una interfaz mucho más natural e intuitiva. En
definitiva, son una forma innovadora y audaz para mejorar
la interfaz de usuario en varios aspectos, y muy flexible para
ser integrado en otras plataformas. En concreto, para este
proyecto, se va a facilitar con valor adicional, la integración de
los avatares en la televisión 3D, en la producción de pelı́culas y
en áreas relacionadas.
Por otro lado, las lenguas minoritarias han sido dejados de
lado en el mercado dentro del área de las tecnologı́as del habla.
Esta tecnologı́a debe poder llegar a todas las culturas por lo
que consideramos prioritario el desarrollo de avatares en estas
lenguas.
Encontramos ası́ dos tecnologı́as con mucho potencial
de sinergia, la de la sı́ntesis de voz y la de gráficos por
computador. Dentro del área de sı́ntesis de voz, es importante
resaltar la necesidad de avanzar especialmente en las lenguas
minoritarias, y los avatares necesitan de esta capacidad para
poder comunicarse con el usuario. Este proyecto une ambas
tecnologı́as y es la prueba de que existen muchas posibilidades
cientı́ficas y prácticas de interacción entre ambos. Con el se
mejora la calidad de interacción entre el hombre y la máquina,
ofreciendo al usuario la posibilidad de hacerlo en su propio
idioma.
Se han obtenido ya unos buenos resultados iniciales, que
serán mejorados en la segunda fase del proyecto.
Las lı́neas de investigación futuras se centrarán en las expresiones corporales y relaciones espaciales. Esto significa ampliar la animación facial a animación corporal y a su integración
total en entornos virtuales, aplicando reglas de comportamiento dependiendo de su situación espacial dentro del entorno. Por
otro lado, existe la necesidad de crear una comunicación hablada bidireccional, en la que el usuario pueda utilizar para la interacción, además de el ratón y el teclado, su propia voz. Por
ello, otra de las lı́neas de investigación futuras en el área de
avatares conversacionales es la incorporación de sistemas de reconocimiento de voz.
5. Referencias
[1]
Maes, P.: Agents that Reduce Work and Information Overload, Communications of the ACM, Vol. 7/7, July 1994.
[2]
Alexa M., Behr J., Müller W. (2000). ”The Morph Node”.
Proc. Web3d/VRML 2000, Monterey, CA., pp. 29-34
[3]
http://tcts.fpms.ac.be/synthesis/mbrola.html
[4]
Inma Hernaez, Eva Navas, Juan Luis Murugarren, Borja Etxebarria: Description of the AhoTTS System for the
Basque Language.2001
[5]
Norbert Braun, ”Storytelling & Conversation to Improve
the Fun Factor in Software Applications”. CHI 2002
Conference on Human Factors in Computing Systems,
Workshop Funologie, Minneapolis, Minnesota, SIGCHI,
ACM, USA ”Interactive problem solving with speech”, J.
Acoust. Soc. Amer., Vol. 84, 1988, p S213(A).
[6]
Braun N, Finke M, Rieger Th: Community TV: An Approach to Interaction for Groups and Single Users on In-
ternet Video. In: Kluev, V.V. (Hrsg.) u.a.; World Scientific and Engineering Society (WSES): Proceedings of
WSES Conferences 2001. CD-ROM : SSIP-MIV- SIMRODLICS. 2001
[7]
Hari Om Srivastava: Interactive TV: Technology and Markets. Editado por: Digital Audio And Video Series.
[8]
Braun, N., Finke, M. Interaction of Video on Demand Systems with Human-like Avatars and Hypermedia. 7th International Workshop on Interactive Distributed Multimedia Systems and Telecommunication Services, IDMS2000
(en cooperación con ACM SIGCOMM y SIGMM) Octubre 17-20, 2000, Enschede, Holanda.
[9]
Ryokai, K., Vaucelle, C., Cassell, J.(2002). ”Literacy
Learning by Storytelling with a Virtual Peer”. Proceedings
of Computer Support for Collaborative Learning. January
7-11, Boulder, CO, pp. 352-360.
[10] Antón Nijholt. Computer-facilitated Communit Building
for E-Learning. Center of Telematics and Information
Technology. University of Twente, Po Box 217. Publication 2002
[11] Ryokai, K., Vaucelle, C., Cassell, J.(2002). ”Literacy
Learning by Storytelling with a Virtual Peer”. Proceedings
of Computer Support for Collaborative Learning. January
7-11, Boulder, CO, pp. 352-360.
Descargar