Find the upcoming dates on this page.

Previous Talks

Speaker: Hans-Christian Hege (Konrad-Zuse-Zentrum für Informationstechnik Berlin)

Krebsbehandlungen können durch Überwärmung des Tumorgewebes unterstützt werden (Hyperthermie). Die Erwärmung von tiefliegendem Gewebe läßt sich durch gezielte Einstrahlung von Radiowellen erreichen. Um eine therapeutisch optimale Temperaturverteilung im Körper des Patienten zu erzielen, muß eine optimale Einstellung der Antennenparameter durch individuelle Planung gefunden werden.

In dem Vortrag wird ein in der Entwicklung befindliches Softwaresystem vorgestellt, das alle Arbeitsschritte der Hyperthermieplanung unterstützt: Erstellung eines individuellen, anatomisch getreuen Patientenmodells, Simulation des elektromagnetischen/thermischen Geschehens sowie Optimierung der freien Parameter. Zur schnellen und verläßlichen Lösung der partiellen Differentialgleichungen werden adaptive Multilevel-Finite-Element-Verfahren verwendet. Ein besonderer Schwerpunkt der Entwicklung sind moderne Visualisierungsverfahren zur kombinierten Darstellung aller auftretenden Daten (z.B. medizinische Bilddaten, Segmentierungsergebnisse, FE-Gitter, Skalar- und Vektorfelder) sowie geeignete Interaktionsmethoden. Erst solche Techniken ermöglichen dem medizinischen Anwender die Durchführung der komplexen Planungsschritte.

Speaker: Roberto Scopigno (CNUCE-C.N.R., Pisa)

Due to the surface meshes produced at increasing complexity in many applications, interest in efficient simplification algorithms and multiresolution representation is very high. An enhanced simplification approach together with a general multiresolution data scheme will be presented in the seminar.

JADE, a new simplification solution based on the Mesh Decimation approach has been designed to provide both increased approximation precision, based on global error management, and multiresolution output. Results will be presented on Jade's empirical time complexity, approximation quality, and simplification power (together with a comparison with other simplification solutions).

Moreover, on the basis of these simplification techniques, we foresee a modeling framework based on three separate stages (shape modeling, multiresolution encoding and resolution modeling), and propose a new approach to the last stage, resolution modeling, which is highly general, user-driven and not strictly tied to a particular simplification method. The approach proposed is based on a multiresolution representation scheme for triangulated, 2-manifold meshes, the Hypertriangulation Model (HyT). This scheme allows to selectively "walk" along the multiresolution surface, moving between adjacent faces efficiently. A prototypal resolution modeling system, Zeta, has been implemented to allow interactive modeling of surface details. It supports: efficient extraction of fixed resolution representations; unified management of selective refinement and selective simplification; easy composition of the selective refinement/simplification actions, with no cracks in the variable resolution mesh produced; multiresolution editing; interactive response times.

Speaker: David Hedley (Bristol university)

The Scope rendering system has been developed over the course of the last 3 years to facilitate research into the fundamentals of computer graphics, with particular emphasis on discontinuity meshing. We discuss the design and architecture of the system, highlighting several software engineering issues using C, and the balancing robustness against efficiency. We then discuss the research currently being undertaken using the system: hierarchical radiosity and dynamic radiosity, and the implications they have for the underlying system.

Speaker: Martin Faust (Universität Bremen)

In verschiedenen Projekten in den Bereichen Produktion und Logistik wurde deutlich, daß trotzt verfügbarer rechnergestützter Modelliersysteme mit grafischer Ausgabe gegenständliche, baukastenorientierte Modelle für die Anschauung und Kommunikation einen hohen Stellenwert besitzen.

Am Forschungszentrum Arbeit und Technik (artec) der Universität Bremen wurde ein neuer Ansatz entwickelt, der die bisher streng getrennten Modellwelten miteinander verbindet. Im Mittelpunkt des Konzeptes steht dabei die Hand des Benutzers, die Interaktionen auf gegenständlichen Objekten durchführt.

Der allgegenwärtige Computer verschwindet im Hintergrund und erhält die Aufgabe, Aktionen der Hand zu erkennen und auf das virtuelle Modell umzusetzen. Um die Aktionen der Hand zu erkennen, werden die Daten mit Hilfe eines Datenhandschuh erfaßt und von einer Gestenerkennung ausgewertet. Auf diese Art und Weise entsteht durch gegenständliches Modellieren simultan ein abstraktes Rechnermodell, das für weitergehende Analyse- und Simulationszwecke genutzt werden kann.

Dieses Konzept nennen wir mit satirischem Hintergedanken Real Reality.

Speaker: Gonzalo Besuievsky (Universität Girona)

We present two Global Monte Carlo based algorithms to perform accurate illumination simulation of motion blur effects in radiosity scenes. Our first results will be presented

Speaker: Mateu Sbert (Universität Girona)

In this talk we will deal with two topics in shooting random walk radiosity. The first is to decide, which of the different estimators we have available is the best. The second question is that, when given different sources, what the optimal probability for a path to begin at a source is.

Speaker: Carlos Urena (Universität Girona)

We present some results on the analysis of variance of Monte Carlo algorithms, and show how they can be applied to improve two-step algorithms for global illumination.

Speaker: Francois Faure (iMAGIS/IMAG, Grenoble, France)

Details

Category

Duration

45 + 15

Speaker: Roberto Grosso (Universität Erlangen-Nürnberg)

Multilevel representations and mesh reduction techniques have been used for accelerating the processing and the rendering of large datasets representing scalar or vector valued functions defined on complex 2 or 3 dimensional meshes. We present a method based on finite elements and hierarchical bases which combines these two approaches in a new and unique way that is conceptually simple and theoretically sound. Starting with a very coarse triangulation of the functional domain a hierarchy of highly non-uniform tetrahedral (or triangular in 2D) meshes is generated adaptively by local refinement. This process is driven by controlling the local error of the piecewise linear finite element approximation of the function (in the least-squares sense) on each mesh element. Flexibility in choosing the underlying error norm allows for gradient information to be included. A reliable and efficient a posteriori estimate of the global approximation error combined with a preconditioned conjugate gradient solver are the key components of the implementation. Many areas where the proposed method can by applied successfully are envisioned, such as mesh reduction of parameterized grids, visualization of scalar and vector volume data, physically based computer animation of extended bodies and global illumination algorithms. The example application we implemented in order to analyze the properties and advantages of the generated tetrahedral mesh is an iso-surface algorithm which combines the so far separated tasks of extraction acceleration and polygonal decimation in one single processing step. The quality of the iso-surface is measured based on a special geometric norm which does not require the full resolution surface.

Details

Category

Duration

45 + 15

Speaker: Martti Mäntylä

Virtual engineering refers to various scenarios where several independent companies or partners must perform product development or production engineering tasks in co-operation - that is, engineering in a virtual enterprise. Common examples of virtual engineering include the producer-supplier scenario, where product and its subcontractor-made components must be designed simultaneously, the mass customization scenario, where a customized product is composed from basic modules and components from several companies, and the multi-supplier project scenario, where several manufacturers contribute to the engineering and construction of a large design such as an industrial plant. Similarly to the related concept "concurrent engineering", virtual engineering must support the inclusion of all life-cycle issues of a product during its design. However, virtual engineering recognises explicitly the fundamental differences between the life-cycle viewpoints to a product, and aims at solutions that can work also on the basis of distributed heterogeneous information and systems. The term is also intended to cover activities denoted by related expressions "virtual prototyping" and "virtual manufacturing". From the viewpoint of information technology, the research challenge of virtual engineering is to identify and develop computational tools that support co-operation, information sharing, and coordination of activities for engineering teams in a virtual organization. These tools must be capable of operating in a distributed, heterogeneous environment where direct data sharing by means of jointly used data repositories or like is impossible or impractical. Further challenges are posed by the potentially large volume of shared data and the ill-structuredness of some of the necessary information. In the presentation, I will first analyse the basic requirements that computational tools for virtual engineering should satisfy. Next, industrial requirements of virtual engineering are discussed on the basis of studying the business processes that underlie and delienate virtual engineering activities. Finally, three application case studies of virtual engineering are briefly discussed to study the suitability of the above techniques. They are

  • Design Process and Rationale Capture and Deployment, where the focus is on sharing product information across design teams during novel design
  • Computational Infrastructure for Life-Cycle Assessment, where the focus is on sharing and reusing product information across different engineering applications (including legacy systems) and company borders during variant design
  • Virtual Engineering and Construction of Multi-Supplier Projects, the focus of which is on sharing engineering process information to coordinate the activities of cooperating companies and on using the shared models to study and visualise the process.

Speaker: Markus Gross

Fortgeschrittene Anwendungsszenarien, wie z. B. die Simulation chirurgischer Eingriffe, erfordern computergestuetzte Modelle, welche ueber die in der Graphischen Datenverarbeitung ueblicherweise eingesetzten geometrischen Ansaetze hinausgehen. Insbesondere ist es notwendig, Oberflaechen und Volumina des Weichteilgewebes phsikalische Eigenschaften zuzuordnen. Zur Loesung der daraus resultierenden Funktionale kann die Methode der finiten Elemente gewinnbringend eingesetzt werden.

Der folgende Vortrag vermittelt einen Einblick in die Vielschichtigkeit der Problemstellungen bei der Konstruktion von Simulatoren fuer die Gesichtschirurgie. Dazu werden zunaechst Verfahren zur Datenaufbereitung und Geometrie-Extraktion diskutiert, welche auf CT Volumendaten des Patienten operieren. Darauf aufbauend koennen Oberflaechen stueckweise durch global C1 stetige Finite Elemente Funktionen definiert und berechnet werden. Innerhalb des Volumens genuegen Elemente mit geringeren Stetigkeitsanforderungen. Auf Basis der vorliegenden Beschreibungen koennen interaktiv Eingriffe, wie z. B. Repositionierungen des Knochens, vorgenommen und dem physikalischen Modell zugefuehrt werden. Die resultierende Gesichtsform errechnet sich durch Loesung eines Variationsfunktionals im Raum der finiten Elemente. Im Zuge einer Fallstudie illustrieren simulierte Eingriffe basierend auf dem Visible Human Datensatz die Anwendbarkeit des vorgestellten Prototypen.

Speaker: Alexander Keller

Entgegen der Monte Carlo Methode, bei der Integrale durch zufaellige Entscheidungen geschaetzt werden, erlaubt die deterministische Wahl von Abtastpunkten schnellere Konvergenzraten als die Monte Carlo-Methode. Niederdiskrepanzfolgen sind solche deterministische Stuetzstellen, die speziell fuer Zwecke der Optimierung und Integration entwickelt wurden. Im Vortrag werden neue, schnelle Algorithmen, die auf der Quasi-Monte Carlo Integration mittels Niederdiskrepanzfolgen beruhen, fuer spezielle Probleme der Computergraphik vorgestellt.

Speaker: Vlastimil Havran

Parallel implementation of sequential algorithms not only brings changes into the structure of programs, but also forces programmers to move their interest towards specific hardware platforms. Already known "best sequential" algorithms have to be sometimes changed so that their efficiency is reduced by additional overhead needed for synchronization and communication among processes. Unfortunately the ray-tracing algorithm is very time consuming and the cost of the computation of different parts of the images is not the same. There have been some approaches developed in the last years as space subdivision and image subdivision. Naturally they have some advantages and disadvantages and therefore the researches have tried to go further and decrease the shortcomings of parallel solutions. In this lecture the traditional approaches with their results will be outlined. Then the lecture will be devoted to the reasearch performed recently on ray-tracing of large scenes using data prefetching. The results achieved in our research team in Prague will be presented as well.

Speaker: Pavel Simek

Constraints have been used from the early 60's and now they are a common feature of todays professional graphics modeling systems. Constraints define the relations between objects which have to be satisfied. With the growing speed of computer hardware, new algorithms for solving sets of constrains are developed, especially for geometric constraints. There have been developed some new approaches during the last years which nearly reach interactive speed. Faster algorithms for solving the CSP (Constraint solution problem) use additional information obtained by analyzing properties of the used constraints or by analyzing the graph structure of the CSP. Traditional approaches will be outlined in the lecture. Then we will talk about our new algorithm for solving constraints - the minimal change method. The lecture will cover some ideas to speed up the solving process using the analyzed graph of the CSP.

Speaker: Karl-Udo Jahn

Bei der Implementierung von (semi-)numerischen Algorithmen hat man zu beachten, dass durch die endliche Rechengenauigkeit beliebig falsche Resultate entstehen koennen, selbst wenn die Input-Daten im verwendeten Maschinenzahlen-Raster exakt darstellbar sind. Auch das Erkennen und korrekte Behandeln von Sonderfaellen (degenerate input data), in letzter Zeit gerade fuer geometrsiche Algorithmen im Mittelpunkt des Interesses, gestalten sich schwierig.

Um korrekte Aussagen bzw. Werte zu erhalten, koennen verschiedene Methoden Anwendung finden: Verwendung einer exakten Integer-Arithmetik, symbolisches Rechnen, die von Edelsbrunner/Muecke vorgeschlagene Technik "Simulation of Simplicity" oder Rechnen mit Einschliessungsmengen. Diese oder andere Verfahren, die auch hybrid eingesetzt werden, arbeiten selbst nur unter gewissen Voraussetzungen teilweise oder durchgaengig erfolgreich, was ihre Bedeutung jedoch nicht schmaelert.

Im Vortrag wird eine weitere Methode vorgeschlagen, die an das Rechnen mit Einschliessungsmengen anschliesst, um Algorithmen, die unter Verwendug einer exakten Zahlendarstellung, Arithmetik und Auswertung von Standardfunktionen korrekte Resultate liefern wuerden, durch Transformationen zu implementieren. Die Transformationen haben als Grundbausteine Regeln zu Umwandlung von Ergibtanweisungen, Sequenzen, if-then-else-Anweisungen und while-Schleifen und setzen sich induktiv aus diesen zusammen. Wenn der transformierte Algorithmus Werte liefert, so sind dies garantierte Einschliessungen der gesuchten exakten. Bricht er waehrend seiner Laufzeit unterwegs ab, so kann er mitteilen, warum dies so ist. An Beispielen wird die Praktikabilitaet demonstriert.

Speaker: Axel Pinz

In der Computergraphik wird von einer Modellierung der Szene ausgegangen und Bilder dieser Szene werden errechnet. Im Bildverstehen ist die Vorgangsweise dazu genau invers: (reale) Bilder sind die Eingabedaten fuer nachfolgende Prozessketten, das Ergebnis ist eine Beschreibung der aufgenommenen Szene. Diese Dualitaet zwischen "maschinellem Sehen" und "maschinellem Darstellen" aus der Sicht des Bildverstehens steht im Zentrum des Vortrages. In vielen Systemen kann der Kreis heute immer enger geschlossen werden, etwa wenn zum Testen von Bildanalyse-Algorithmen mit Hilfe von Computergraphik simulierte Bilder benutzt werden, oder in augmented reality Systemen, wo Bildanalyse zum positionsgenauen Verfolgen von bewegten Objekten benutzt wird. Der Vortrag wird reich illustriert durch aktuelle Arbeiten des Grazer Institutes aus den Bereichen Computergraphik, Objektrekonstruktion und Computer Vision.