[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]
[infowar.de] Videomorphing mit Sprachsimulation
Infowar.de, http://userpage.fu-berlin.de/~bendrath/liste.html
-------------------------------------------------------------
http://www.telepolis.de/deutsch/inhalt/lis/12564/1.html
Liebe Liste,
die hier beschriebene Technologie ist seit langem ein Traum der
Infowarriors. Schon Anfang der 90er Jahre wurde darüber geschrieben,
dass man Saddam Hussein zeigen müsste, wie er ungläubige Worte von sich
gibt. Nun scheint es technisch machbar zu sein. Mal sehen, was in die
Nachfolge der EC-130 "Commando Solo" so alles eingebaut wird...
Grüße, Ralf
Worte in den Mund gelegt
Michaela Simon 18.05.2002
Wissenschaftlern gelingt erstmals "videorealistische" Manipulation von
Videomaterial
Wissenschaftler vom [1]Massachusetts Institute of Technology in Boston
haben die ersten so genannten videorealistischen Videos fabriziert, in
denen Menschen Dinge sagen, die sie nie gesagt haben.
Die Frau spricht direkt in die Kamera. Sie deklamiert einen
japanischen Songtext, ihre Lippen formen komplizierte Verse, Verse aus
Worten, die sie nie in den Mund genommen hat. Was die Frau irgendwann
einmal wirklich gesagt hat, das lässt sich nicht sehen. Japanisch war
es zumindest nicht. Das Material wurde mithilfe einer neu entwickelten
Software nachbearbeitet. Keiner der Testgucker merkte, dass es sich um
ein synthetisches Demoband handelte.
Geforscht und entwickelt wird im Bereich der Facial animation, der
Gesichtsanimation, im Prinzip schon seit [2]1971. Es begann mit der
Interpolation von Einzelbildern, spezifischen Gesichtszügen und der
Simulation der anatomischen Eigenschaften des menschlichen Gesichts.
Mittlerweile können automatisch Animationssequenzen generiert werden,
bestimmte detaillierte Ausdrücke und Phoneme - die Lippen bei der
"Stimmausgabe" liegen dann schon vordefiniert bereit. Ein Wort wird als
eine Sequenz von Phonemen aufgefasst. Zu den wichtigen Parametern bei
der Beschreibung des Gesichtsausdrucks gehören die so genannten MPAs
(Minimal Perceptible Action).
[phoneme ee [mpa open_jaw intensity 0.50] // Mundöffnung [mpa
stretch_cornerlips intesity -0.29] // Lippenwinkel strecken [mpa
raise_upperlips intensity -0.20] // Oberlippen anheben] Beispiel für
das Phonem "ee"1
Tony Ezzet vom [3]Center for biological and computational learning aus
der Gruppe von [4]Tomaso Poggio, Forscher im [5]Artificial Intelligence
Laboratory am [6]MIT hat es nun, wie der [7]Boston Globe berichtet,
erstmals geschafft, die Lippenbewegungen so zu perfektionieren, dass
von einem videorealistischen Effekt gesprochen werden kann. Die neue
Software ist außerdem so weit automatisiert, dass keine Korrekturen
anfallen. Erst nach einer Weile spürt der Betrachter, dass das der
Kamera zugewandte Gesicht etwas leierig und leblos aussieht.
Der Trick? Künstliche Intelligenz: Die Maschine guckt, wer da spricht
und merkt sich die Einzelheiten. Dann lässt sie sprechen. Mehr darüber
gibt es leider erst im Juli, wenn die Wissenschaftler ihr Paper auf der
[8]Siggraph vorstellen. Einstweilen vergnügen sie sich damit, eine
News-Sendung zu dubben, das heißt die Lippenbewegungen des Anchorman
(in dem Fall sollte es Ted Koppel von ABC's "Nightline" sein) werden
vom Englischen ins Spanische übersetzt. Auch soll die Software so
optimiert werden, dass sie bei Menschen funktioniert, die nicht direkt
in die Kamera sehen, sondern zappeln oder tanzen.
"Das ist wirklich bahnbrechende Arbeit", zitiert der Boston Globe
einen angesehenen New Yorker Informatikprofessor, "aber wir gehen auf
Kollisionskurs mit der Ethik. Wenn man Menschen etwas sagen lassen
kann, das sie niemals gesagt haben, dann kann jeden Moment die Hölle
losgehen."
Armer Usama bin Ladin. Welche Scheußlichkeiten wird man ihm bald in
den vom Fusselbart umrahmten Mund legen?
Literaturangaben
1) [9]Virtuelle Realität von Nils Philippsen
Links
[1] http://web.mit.edu/news.html
[2]
http://www.cis.ohio-state.edu/~sking/FacialAnimation.html#Publications
[3] http://www.ai.mit.edu/projects/cbcl/web-homepage/web-homepage.html
[4] http://www.ai.mit.edu/people/poggio
[5] http://www.ai.mit.edu
[6] http://www.mit.edu
[7] http://www.bostonglobe.com
[8] http://www.siggraph.org
[9]
http://www.it.fht-esslingen.de/~schmidt/vorlesungen/vr/seminar/ws9899/fa
cialanimation.html
---------------------------------------------------------------
Liste verlassen:
Mail an infowar -
de-request -!
- infopeace -
de mit "unsubscribe" im Text.