Skip to main content

Methodenauswahl und theoretische Grundlagen

  • Chapter
Immobilienbewertung im Kontext der IFRS
  • 1922 Accesses

Auszug

In Anlehnung an Backhaus et al. erfolgt eine Einteilung der statistischen Analyseverfahren nach dem Anwendungsbezug. Obwohl nicht in allen Fällen eine überschneidungsfreie Zuordnung möglich ist, bietet sich eine Einteilung in hauptsächlich strukturen-entdeckende Verfahren und hauptsächlich strukturen-prüfende Verfahren an. Strukturen-entdeckende Verfahren dienen in erster Linie der Entdeckung von Zusammenhängen zwischen Variablen oder zwischen Objekten. Typischerweise besteht vor Anwendung des jeweiligen Verfahrens noch keine Kenntnis über die Beziehungszusammenhänge im untersuchten Datensatz. Strukturen-prüfende Verfahren dienen dagegen in erster Linie der Überprüfung von Zusammenhängen zwischen Variablen. Es existiert eine auf sachlogischen Überlegungen basierende Vorstellung über die Zusammenhänge zwischen Variablen. Diese Zusammenhänge sollen mit Hilfe eines statistischen Verfahrens überprüft werden.933

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 79.99
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD 69.99
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  1. Vgl. Backhaus et al. (2006), S. 7.

    Google Scholar 

  2. Die Faktorenanalyse findet insbesondere zur Reduktion bzw. Bündelung einer Vielzahl erhobener Variablen Anwendung. Ziel ist die Zurückführung sehr zahlreicher, auf einen bestimmten Sachverhalt bezogener Merkmale auf wenige zentrale Faktoren. Einen wichtigen Anwendungsbereich der Faktorenanalyse bilden Positionierungsanalysen. Hierbei werden subjektive Eigenschaftsbeurteilungen des jeweiligen Untersuchungsobjektes (die Entscheidungsnützlichkeit der mit Hilfe eines anerkannten Schätzverfahrens gewonnenen Information) mit Hilfe der Faktorenanalyse auf die zu Grunde liegende Beurteilungsdimensionen (z.B. die Relevanz und Zuverlässigkeit) verdichtet. Diese Verdichtung lässt sich im Ergebnis graphisch darstellen. Man spricht hierbei von der faktoriellen Positionierung, vgl. ausführlich zur explorativen Faktorenanalyse HÜtter/ Schwarting (2000), S. 381 ff.

    Google Scholar 

  3. Die Clusteranalyse verfolgt im Gegensatz zur Faktorenanalyse eine Zusammenfassung bzw. Bündelung von Objekten. Ziel ist die Bündelung von Objekten in einer Gruppe (Clustern), welche möglichst homogen sind. Die Gruppen untereinander sollten dagegen möglichst hetegoren sein. Typische Beispiele sind die Bildung von Persönlichkeitstypen oder Marktsegmenten, vgl. Backhaus et al. (2006), S. 12 f.

    Google Scholar 

  4. Die Varianzanalyse dient typischerweise zur Messung von experimentellen Einflüssen in Gestalt der nominal skalierten unabhängigen Variablen und ist somit ebenfalls für das Untersuchungsproblem nicht geeignet. Die Diskriminanzanalyse dient zur Analyse von Gruppenunterschieden (Wählergruppen) bzw. zur Klassifizierung von Elementen (Einstufung von Kreditkunden) und eignet sich daher ebenfalls nicht für das zu untersuchende Problem. Die Kontingenzanalyse dient der Analyse von Beziehungen zwischen ausschließlich nominalen Variablen (z.B. dem Zusammenhang zwischen Raucher vs. Nicht-Raucher und Lungenkrebs). Aufgrund der ausschließlichen Nominalskalierung kann keinerlei Präferenzordnung berücksichtigt werden, vgl. Backhaus et al. (2006), S. 10. Die Berücksichtigung einer Vorteilhaftigkeit ist jedoch für das zu untersuchende Problem notwendig. Somit ist die Kontingenzanalyse ebenfalls nicht anwendbar.

    Google Scholar 

  5. Die konfirmatorische Faktorenanalyse gehört verfahrenstechnisch zu den Strukturgleichungsmodellen. Diese finden Anwendung bei in der Natur nicht beobachtbaren Variablen. Wie auch bei dem im Rahmen dieser Arbeit untersuchten Problem, hat man es mit sog. hypothetischen Konstruktionen oder latenten Variablen zu tun. Mit Hilfe der konfirmatorischen Faktorenanalyse lassen sich komplexe Kausalstrukturen, insbesondere mit mehreren abhängigen Variablen, untersuchen, vgl. ausführlich Homburg/ Pflesser (2000), S. 413 ff. Da jedoch die der Beurteilung zugrunde liegenden Faktoren für die Bestimmung der Entscheidungsnützlichkeit einer Rechnungslegungsinformation aufgrund zahlreicher Studien bereits bekannt sind und in Gestalt der qualitativen Anforderungen an eine Rechnungslegungsinformation vom IASB bereits umgesetzt wurde, wird ein Strukturgleichungsmodell nicht benötigt.

    Google Scholar 

  6. Vgl. Backhaus et al. (2006), S. 9. So basiert die von SPSS im Rahmen des Conjoint Measurement verwendete metrische OLS-Regression auf dieser Dummy-Variablen-Technik.

    Google Scholar 

  7. Vgl. Klein (2002), S. 7. Teichert dagegen unterscheidet zwischen der Conjoint-Analyse, welcher ein als gültig unterstelltes und axiomatisch nicht umfassend geprüftes Nutzenmodell zugrunde liegt, und dem Conjoint Measurement, welches dagegen die empirische Überprüfung eines Nutzen-bzw. Entscheidungsmodells verfolgt, vgl. Teichert (2000), S. 476 f. In der vorliegenden Arbeit werden die Begriffe ConjointAnalyse und Conjoint Measurement synonym verwendet und als Oberbegriff für eine Vielzahl teilweise sehr unterschiedlicher Verfahren aufgefasst.

    Google Scholar 

  8. Jedoch wird das CJM auch in der Rechnungslegungsforschung eingesetzt. Vgl. stellvertretend Schneider (1984) m.w.N., dessen Untersuchung die Beurteilung interner Revisionsabteilungen durch Abschlussprüfer zum Gegenstand hatte.

    Google Scholar 

  9. Vgl. hierzu Green/ Rao (1971), die die aus der Psychologie stammende Conjoint-Analyse erstmals auf Fragen des Marketings anwandten. Parallel zur Entwicklung des Conjoint Measurement in der Marketing-Forschung haben sich Anfang der 70er Jahre in der empirischen Psychologie zwei nahezu identische Forschungsrichtungen, das “clinical judgement” sowie das “functional measurement” entwickelt. Bis auf die zur Parameterschätzung angewandten Algorithmen unterschieden sich diese Verfahren jedoch von den aus der Marketing-Forschung bekannten Conjoint Measurement nicht, vgl. Stallmeier (1993), S. 17.

    Google Scholar 

  10. Conjoint für “CONsider JOINTly”, vgl. Klein (2002), S. 11.

    Google Scholar 

  11. Vgl. Backhaus et al. (2006), S. 12 f., “deswegen auch: Conjoint-MeasurementKlein (2002), S. 10

    Google Scholar 

  12. Vgl. beispielsweise die Übersichtsarbeit von Farquhar (1984) sowie die vergleichende Arbeit von Sattler/Hensel-BÖrner (2000), S. 121 ff.

    Google Scholar 

  13. Vgl. Srinivasan (1988).

    Google Scholar 

  14. Vgl. Srinivasan (1988), S. 299. Attributstufen stellen mögliche Ausprägungen des betrachteten Merkmals dar. So wären verschiedene alternative Heuristiken zur Bestimmung des Diskontierungszinssatzes die einzelnen Attributstufen.

    Google Scholar 

  15. Der Gesamtnutzen einer Ausprägungskombination wird durch die additive Verknüpfung des gewichteten Nutzens ihrer Eigenschaften determiniert. Um den Nutzen der einzelnen Ausprägungen zu messen, wird zunächst die beste und die schlechteste Konsequenz pro Merkmal ermittelt. Anschließend werden die übrigen Konsequenzen den Präferenzen entsprechend geordnet. Danach werden den einzelnen Konsequenzen reelle Zahlen zugeordnet. Die beste Konsequenz erhält üblicherweise den Wert 100, die schlechteste den Wert 0, die übrigen Konsequenzen dazwischen liegende Werte. Durch die Verankerung der Skalenendpunkte (0 und 100) werden zum einen “Floor-und Ceiling-Effekte” weitgehend ausgeschlossen, zum anderen wird das Risiko vermindert, dass Probanden bei ihren Einschätzungen die Beurteilung der Ausprägungen und die Wichtigkeiten der Merkmale konfundieren, vgl. Wilkie/ Pessemier (1973), S. 433 f. Bei der Messung der Merkmalswichtigkeiten wird zunächst das wichtigste Merkmal bestimmt und dient als Ankerpunkt für weitere Einschätzungen. Dieses erhält einen Wert von 100. Ein Wert von 0 bedeutet, dass ein Merkmal unwichtig ist; die übrigen Merkmale werden im Verhältnis dazu eingeschätzt. Die Wichtigkeit definiert Srinivasan (1998), S. 296 f. als die Differenz zwischen der besten und der schlechtesten Ausprägung eines Merkmals, die der Proband zuvor beurteilt hat. Dadurch ist die Wichtigkeitseinschätzung an der tatsächlichen Bandbreite des Merkmals orientiert und vermeidet Fehleinschätzungen, die aus begrifflichen und konzeptionellen Missverständnissen entstehen. Empirische Untersuchungen zeigen, dass die Beurteilungen der Ausprägungen in hohem Maße zuverlässig sind, vgl. beispielsweise Green/Krieger/Agarwal (1993), S. 378.

    Google Scholar 

  16. Vgl. Swoboda (2000), S. 150. Als ein gravierendes theoretisches Problem der kompositionellen Verfahren wird nach Ansicht von Böcker (1986), S. 561, der Begriff “Bedeutung” meist nicht richtig verstanden, sodass statt der “Relevanz des Merkmals” deren Bedeutsamkeit erfragt wird. Daher erachtet er die kompositionelle Präferenzskalierung auch als “ein wenig geeignetes Parametrisierungsverfahren”.

    Google Scholar 

  17. Vgl. beispielsweise Green/ Goldberg/ Montemayor (1981), S. 34 f.

    Google Scholar 

  18. Vgl. zur externen Validität auch Fn. 925.

    Google Scholar 

  19. Vgl. Swoboda (2000), S. 151.

    Google Scholar 

  20. So ist beispielsweise bei der direkten Frage “Wie wichtig ist Attribut X?” nicht unbedingt klar, ob die Wichtigkeitseinschätzung dieses Merkmals mit der Einschätzung des Merkmals Y vergleichbar ist, und verschiedene Probanden könnten diese Frage unterschiedlich interpretieren, vgl. Srinivasan (1988), S. 296.

    Google Scholar 

  21. Wird beispielsweise das Fassungsvermögen eines Gefrierschrankes anhand der Ausprägungen 100, 125 und 150 Liter variiert und die Beurteilung auf einer 10-stufigen Ratingskala für 100 Liter sei mit Null und die für 150 Liter sei mit zehn angegeben, dann neigen viele Probanden dazu, der mittleren Ausprägung von 125 Litern einen mittleren Wert von fünf zuzuordnen, vgl. auch Green/ Srinivasan (1990), S. 10.

    Google Scholar 

  22. So stellt das CJM nach Ansicht von BÖcker (1986), S. 564, “diejenige Form der Präferenzanalyse dar, die die höchste praktische Relevanz gefunden hat. Das hohe Maß an Akzeptanz kann [...] darauf zurückgeführt werden, daß [...] Conjoint-Analysen vergleichsweise genaue Prognosen erlauben.”

    Google Scholar 

  23. Die klassische Conjoint-Analyse führt bei einer geringen Eigenschaftenanzahl (bis zu 6) zu validen Ergebnissen, vgl. Green/ Srinivasan (1990), S. 8 f. Hybride Conjoint-Analysen sind daher insbesondere deshalb entwickelt worden, da es bei einer hohen Anzahl von Eigenschaften zu Validitätsproblemen infolge einer Informationsüberlastung der Untersuchungsteilnehmer kommen kann, vgl. Hensel-Börner/ Sattler (2000), S. 706. Hybride Verfahren verbinden kompositionelle und dekompositionelle Verfahren miteinander. Die Auskunftspersonen geben zunächst im kompositionellen Teil ein direktes Urteil zur Bedeutsamkeit der Eigenschaft sowie deren Ausprägung ab und beurteilen dann im dekompositionellen Teil (der eigentlichen Conjoint-Analyse) ausgewählte Eigenschaftskombinationen. Die verbreiteste Form hybrider Conjoint-Analysen ist die “Adaptive Conjoint Analysis” (ACA), auf der fast die Hälfte aller in Europa durchgeführten Conjoint-Studien basieren. Sie basiert auf einer EDV-gestützten interaktiven Befragungstechnik, vgl. Hensel-Börner/Sattler (2000), S. 706 f. m.w.N. sowie zur Entwicklung und einem Vergleich hybrider Verfahren Green/ Krieger (1996), S. 852 ff. Für die vorliegende Untersuchung mit drei Eigenschaften erscheint daher der Rückgriff auf hybride Verfahren entbehrlich.

    Google Scholar 

  24. Vgl. Sattler/ Hensel-BÖrner (2000) m.w.N. Während einige Studien Diskrepanzen zwischen den Nutzenschätzungen und der Validität beider Verfahren feststellen konnten, zeigten sich in anderen Studien hohe Zusammenhänge. Die Diskrepanzen zwischen den Befunden dürften zum großen Teil auf die bereits angesprochene Heterogenität kompositioneller und dekompositioneller Ansätze zurückzuführen sein. Vgl. ebenfalls die Übersicht bei Tscheulin (1991), S. 1270. Eine systematische Überprüfung verschiedener Varianten im Rahmen umfangreicher empirischer Studien oder Metaanalysen fehlt jedoch bislang.

    Google Scholar 

  25. Vgl. zu einem empirischen Vergleich des Analytic Hierarchy Process und dem CJM beispielsweise Tscheulin (1991) sowie allgemein zum Analytic Hierarchy Process Tscheulin (2000), S. 579 ff. m.w.N.

    Google Scholar 

  26. Vgl. Backhaus et al. (2006), S. 561.

    Google Scholar 

  27. Jedoch hat sich eine Vielzahl von Studien mit der Vorteilhaftigkeit unterschiedlicher Nutzenmodelle auseinandergesetzt, vgl. für Studien im Kontext der Rechnungslegung Emery/ Barron/ Messier (1982), S. 450 m.w.N.

    Google Scholar 

  28. Bezogen auf die oben genanten Schritte, würde eine solche axiomatische Testung zwischen den Schritten zwei und drei erfolgen. Vgl. beispielsweise zum Einsatz des CJM zur axiomatischen Testung Messier/ Emery (1980), S. 679 ff.

    Google Scholar 

  29. So führen beispielsweise Emery/ Barron/ Messier (1982), S. 457 aus, dass “for most descriptive modeling purposes a simple additive model may still be sufficient.”

    Google Scholar 

  30. Vgl. zur axiomatischen Testung des Nutzenwertmodells auch Fn. 961 f.

    Google Scholar 

  31. Vgl. Backhaus et al. (2006), S. 566.

    Google Scholar 

  32. Vgl. zu den Vor-und Nachteilen der jeweiligen Methoden beispielsweise Green/ Srinivasan (1978), S. 107 ff.

    Google Scholar 

  33. Vgl. umfassend zu reduzierten fraktionellen Designs Addelman (1962) sowie Gupta/ Nigam/Dey (1982).

    Google Scholar 

  34. Während vollständige Designs unkorrelierte Schätzungen aller Haupteffekte und Wechselwirkungen zwischen den Merkmalen (den unabhängigen Variablen) zulassen, müssen bei reduzierten fraktionellen Designs einzelne Effekte, entweder alle oder bestimmte Interaktionen zwischen den Merkmalen, ignoriert werden. Diese Einschränkung wäre jedoch für die vorliegende Untersuchung ohne Bedeutung, da die unterstellte additive Kompositionsregel ausschließlich Haupteffekte enthält und Interaktionen vernachlässigt, vgl. beispielsweise Green/ Srinivasan (1978), S. 109 ff. sowie Teichert (2000), S. 485 ff.

    Google Scholar 

  35. Der Verzicht auf Hold-Out-Karten ist bei nicht methodisch orientierten Untersuchungen durchaus üblich, vgl. stellvertretend Swoboda (2000), S. 149 ff. sowie Müller/Kesselmann (1994), S. 265 ff. Auf einen ergänzenden Fragebogenteil, welcher eine erneute Zuordnung der einzelnen Heuristiken als Substitut für die jeweilige Ausprägung enthält, wurde aus Gründen der Tautologie und der erheblichen Gefahr der Überfrachtung verzichtet. Die Pre-Tests hatten ergeben, dass eine Erweiterung des Fragebogens den zumutbaren Zeitaufwand übersteigen würde und somit sowohl die Rücklaufquote und als auch die Qualität der Antworten negativ beeinflussen würde. Auch die tautologische Komponente dieses Fragebogenteils, d.h. eine ausschließliche Bestätigung eines Zusammenhanges, welcher im Vorhinein als gegeben unterstellt wird, war gegenüber einem möglichst prägnanten und vergleichsweise kurzen Fragebogen abzuwägen.

    Google Scholar 

  36. Vgl. Bortz/ DÖring (2003), S. 71.

    Google Scholar 

  37. Vgl. DÖRING (2003) Ebenda, S. 72.

    Google Scholar 

  38. Vgl. beispielweise zur Konstruktion von Schätzdesigns für Conjoint-Analysen auf Basis von Paarvergleichen Hausruckinger/ Herker (1992), S. 101 ff.

    Google Scholar 

  39. Ratingskalen stellen erzeugte metrische (Intervall)-Skalen dar, vgl. Green/ Srinivasan (1978), S. 111.

    Google Scholar 

  40. Hierzu zählen alle metrischen Verfahren bei denen intervall-skalierte abhängige Variablen und lediglich nominal skalierte unabhängige Variablen Voraussetzung sind, wie z.B. die Varianzanalyse oder die OLSRegression mit Dummy-Variablen-Kodierung, vgl. ausführlich zu dieser Diskussion Green/ Srinivasan (1978), S. 112 sowie zu den einzelnen metrischen Verfahren Backhaus et al. (2006).

    Google Scholar 

  41. Green/ Srinivasan (1978), S. 112.

    Google Scholar 

  42. Vgl. Klein (2002), S. 21 f. m.w.N.

    Google Scholar 

  43. Es werden also aus ordinalen Nutzenurteilen der Probanden mittels des CJM metrische Teilnutzenwerte ermittelt. Voraussetzung für dieses Vorgehen ist die Annahme zur Skalenqualität der CJM-Parameterschätzung. Diese wird gemeinhin mindestens als intervallskaliert unterstellt, ist dieses aber nur annähernd. So führen Green/ Srinivasan (1978), S. 112, zu dieser Problematik Folgendes aus “it should be noted that even though the dependent variable is nonmetric, the estimated parameters tend to satisfy close to interval-scaled properties, for typical values of n and T, the number of estimated parameters” (Hervorhebungen im Original). Hierbei ist n die Anzahl der Stimuli und T die Anzahl der zu schätzenden Parameter.

    Google Scholar 

  44. Grundsätzlich lassen sich nach Green/Srinivasan drei Modelle unterscheiden: Das Teilnutzenwert-Modell (“part worth function model”), das Vektoren-Modell (“vector model”) sowie das Idealpunkt-Modell (“idealpoint model”). Der wesentliche Unterschied zwischen dem auch in dieser Arbeit unterstellten Teilnutzenwert-Modell und den anderen beiden Modellen besteht in den unterschiedlichen Merkmalsausprägungen. So setzt das Teilnutzenwert-Modell nur kategoriale Merkmalsausprägungen voraus, während die beiden anderen Modelle kontinuierliche Skalen zur Ausprägungsmessung voraussetzen, vgl. Green/ Srinivasan (1978), S. 105 f. Das Idealpunkt-und das Vektor-Modell können daher als Spezialfälle des Teilnutzenwert-Modells aufgefasst werden. Sie werden auf Grund ihrer relativ geringen Verbreitung und der Irrelevanz für die vorliegende Untersuchung nachfolgend nicht weiter betrachtet.

    Google Scholar 

  45. Vgl. Kruskal (1965).

    Google Scholar 

  46. Vgl. Srinivasan/ Shocker (1973).

    Google Scholar 

  47. Vgl. ausführlich zur Auswahl und Beurteilung alternativer Schätzverfahren für Teilnutzenwerte Vriens (1995), S. 67.

    Google Scholar 

  48. Vgl. für eine Darstellung der OLS-Regression Hanushek/ Jackson (1977), insb. S. 75 ff. sowie Werner (1997), insb. S. 27 f. sowie 75 ff.

    Google Scholar 

  49. Vgl. stellvertretend Carmone/ Green/ Jain (1978); Cattin/Bliemel (1978); Hauser/ Urban (1977); Huber (1975); Jain et al. (1979); Wittink/Cattin (1981).

    Google Scholar 

  50. Vgl. Green/ Krieger (1993), S. 478. So erachtet auch Böcker (1986), S. 564 es “aus pragmatischen Gesichtspunkten heraus empfehlenswert, Präferenzwerte als Rangdaten zu erheben und sie dann im Wege einer traditionellen Regressionsanalyse auszuwerten.”

    Google Scholar 

  51. Vgl. auch Teichert (2000), S. 500.

    Google Scholar 

  52. Vgl. zur Aggregation und Segmentation beispielsweise Klein (2002), S. 28 ff. Es sei darauf hingewiesen, dass diese Art der Gruppenbildung nur dann angemessen ist, wenn untersucht werden soll, ob sich die Gruppen in ihren Präferenzstrukturen unterscheiden, nicht jedoch um eine möglichst trennscharfe Segmentierung vorzunehmen, vgl. Ebenda, S. 30. Da in dieser Arbeit nur Ersteres beabsichtigt ist, erscheint dieser Aspekt unkritisch.

    Google Scholar 

  53. Vgl. ausführlich zur Fragebogengestaltung Bortz/ DÖring (2003), S. 253 ff. m.w.N.

    Google Scholar 

  54. Vgl. hierzu zum einen die Abgrenzungskriterien des IVSC zwischen Marktwert und Investitionswert (vgl. insbesondere Teil II Kapitel 3.3.2.3.1) sowie zum anderen Gondring (2004), S. 625 ff. zur Anwendung des DCF-Verfahrens bei Investitionsentscheidungen.

    Google Scholar 

  55. Vgl. hierzu beispielsweise McParland/ Adair/ McGreal (2002), S. 128 m.w.N., die ebenfalls Bedarf für zukünftige diesbezügliche Studien sehen.

    Google Scholar 

  56. Vgl. zur Eignung der schriftlichen Befragung sowie zu den Vor-und Nachteilen beispielsweise Wilk (1975), S. 187 ff.

    Google Scholar 

  57. Vgl. zum Einfluss des Anschreibens auf die Rücklaufquote Bortz/ DÖring (2003), S. 257; Wilk (1975), S. 190 f.

    Google Scholar 

  58. Vgl. zum Signifikanzniveau Bortz/ DÖring (2003), S. 30, zum Nutzen von explorativen Signifikanztests Ebenda, S. 384 f. sowie allgemein zur empirisch-qualitativen Exploration Ebenda, S. 385 ff.

    Google Scholar 

  59. Vgl. auch Lorenz/ TrÜck/ LÜtzkendorf (2006), S. 402.

    Google Scholar 

  60. Vgl. zur (vorläufigen) Empfehlung BIIS (2006) sowie Teil III Kapitel 4.2.2.2.

    Google Scholar 

  61. Vgl. gif (2006) sowie ebenfalls Teil III Kapitel 4.2.2.2.

    Google Scholar 

  62. Die Aufgabe eines Immobiliensachverständigen aus Bankensicht ist die Beleihungswertermittlung. Diese unterscheidet sich sowohl hinsichtlich der Zielsetzung als auch des Vorgehens jedoch deutlich von der im Rahmen dieser Arbeit analysierten Markt-bzw. Verkehrswertermittlung. Vgl. stellvertretend zur Beleihungswertermittlung Gondring (2004), S. 984 ff. sowie Joeris/Simon (2005), Rn. 10.1 ff.

    Google Scholar 

Download references

Rights and permissions

Reprints and permissions

Copyright information

© 2007 Deutscher Universitäts-Verlag | GWV Fachverlage GmbH, Wiesbaden

About this chapter

Cite this chapter

(2007). Methodenauswahl und theoretische Grundlagen. In: Immobilienbewertung im Kontext der IFRS. Gabler. https://doi.org/10.1007/978-3-8350-5555-1_9

Download citation

Publish with us

Policies and ethics