Suche innerhalb des Archivs / Search the Archive All words Any words

[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

[infowar.de] Videomorphing mit Sprachsimulation



Infowar.de, http://userpage.fu-berlin.de/~bendrath/liste.html
-------------------------------------------------------------

http://www.telepolis.de/deutsch/inhalt/lis/12564/1.html 

Liebe Liste,

die hier beschriebene Technologie ist seit langem ein Traum der
Infowarriors. Schon Anfang der 90er Jahre wurde darüber geschrieben,
dass man Saddam Hussein zeigen müsste, wie er ungläubige Worte von sich
gibt. Nun scheint es technisch machbar zu sein. Mal sehen, was in die
Nachfolge der EC-130 "Commando Solo" so alles eingebaut wird...

Grüße, Ralf


 Worte in den Mund gelegt
 
 Michaela Simon   18.05.2002 
 
 Wissenschaftlern gelingt erstmals "videorealistische" Manipulation von 
Videomaterial 
 
 Wissenschaftler vom [1]Massachusetts Institute of Technology in Boston 
haben die ersten so genannten videorealistischen Videos fabriziert, in 
denen Menschen Dinge sagen, die sie nie gesagt haben. 
 
 Die Frau spricht direkt in die Kamera. Sie deklamiert einen 
japanischen Songtext, ihre Lippen formen komplizierte Verse, Verse aus 
Worten, die sie nie in den Mund genommen hat. Was die Frau irgendwann 
einmal wirklich gesagt hat, das lässt sich nicht sehen. Japanisch war 
es zumindest nicht. Das Material wurde mithilfe einer neu entwickelten 
Software nachbearbeitet. Keiner der Testgucker merkte, dass es sich um 
ein synthetisches Demoband handelte. 
 
 Geforscht und entwickelt wird im Bereich der Facial animation, der 
Gesichtsanimation, im Prinzip schon seit [2]1971. Es begann mit der 
Interpolation von Einzelbildern, spezifischen Gesichtszügen und der 
Simulation der anatomischen Eigenschaften des menschlichen Gesichts. 
Mittlerweile können automatisch Animationssequenzen generiert werden, 
bestimmte detaillierte Ausdrücke und Phoneme - die Lippen bei der 
"Stimmausgabe" liegen dann schon vordefiniert bereit. Ein Wort wird als 
eine Sequenz von Phonemen aufgefasst. Zu den wichtigen Parametern bei 
der Beschreibung des Gesichtsausdrucks gehören die so genannten MPAs 
(Minimal Perceptible Action). 
 
     [phoneme ee [mpa open_jaw intensity 0.50] // Mundöffnung [mpa 
stretch_cornerlips intesity -0.29] // Lippenwinkel strecken [mpa 
raise_upperlips intensity -0.20] // Oberlippen anheben] Beispiel für 
das Phonem "ee"1       
 
 Tony Ezzet vom [3]Center for biological and computational learning aus 
der Gruppe von [4]Tomaso Poggio, Forscher im [5]Artificial Intelligence 
Laboratory am [6]MIT hat es nun, wie der [7]Boston Globe berichtet, 
erstmals geschafft, die Lippenbewegungen so zu perfektionieren, dass 
von einem videorealistischen Effekt gesprochen werden kann. Die neue 
Software ist außerdem so weit automatisiert, dass keine Korrekturen 
anfallen. Erst nach einer Weile spürt der Betrachter, dass das der 
Kamera zugewandte Gesicht etwas leierig und leblos aussieht. 
 
 Der Trick? Künstliche Intelligenz: Die Maschine guckt, wer da spricht 
und merkt sich die Einzelheiten. Dann lässt sie sprechen. Mehr darüber 
gibt es leider erst im Juli, wenn die Wissenschaftler ihr Paper auf der 
[8]Siggraph vorstellen. Einstweilen vergnügen sie sich damit, eine 
News-Sendung zu dubben, das heißt die Lippenbewegungen des Anchorman 
(in dem Fall sollte es Ted Koppel von ABC's "Nightline" sein) werden 
vom Englischen ins Spanische übersetzt. Auch soll die Software so 
optimiert werden, dass sie bei Menschen funktioniert, die nicht direkt 
in die Kamera sehen, sondern zappeln oder tanzen. 
 
 "Das ist wirklich bahnbrechende Arbeit", zitiert der Boston Globe 
einen angesehenen New Yorker Informatikprofessor, "aber wir gehen auf 
Kollisionskurs mit der Ethik. Wenn man Menschen etwas sagen lassen 
kann, das sie niemals gesagt haben, dann kann jeden Moment die Hölle 
losgehen." 
 
 Armer Usama bin Ladin. Welche Scheußlichkeiten wird man ihm bald in 
den vom Fusselbart umrahmten Mund legen? 
 
  Literaturangaben
 
 1) [9]Virtuelle Realität von Nils Philippsen 
 
 Links 
 
 [1] http://web.mit.edu/news.html
 [2]
http://www.cis.ohio-state.edu/~sking/FacialAnimation.html#Publications
 [3] http://www.ai.mit.edu/projects/cbcl/web-homepage/web-homepage.html
 [4] http://www.ai.mit.edu/people/poggio
 [5] http://www.ai.mit.edu
 [6] http://www.mit.edu
 [7] http://www.bostonglobe.com
 [8] http://www.siggraph.org
 [9]
http://www.it.fht-esslingen.de/~schmidt/vorlesungen/vr/seminar/ws9899/fa
cialanimation.html

---------------------------------------------------------------
Liste verlassen: 
Mail an infowar -
 de-request -!
- infopeace -
 de mit "unsubscribe" im Text.