Beiträge von vanilla.ice

    Im Extremfall (sehr starke Inflation), steht man dann nominal "gut" da, aber kann sich trotzdem nicht wirklich was für Kaufen.

    Ich habe mich von mehreren "Experten" beraten lassen. Keiner konnte (oder wollte?) mir ein Produkt anbieten, dass bei starker Inflation gut wegkommt.

    Mal abgesehen von den Sachwerten:


    Soll jetzt keine Empfehlung sein, aber ein Rentenversicherungs"produkt", welches auch bei stärkerer Inflation (und unter der Voraussetzung, dass die Löhne entsprechend mitsteigen) relativ gut abschneidet, dürfte in der Tat die umlagefinanzierte gesetzliche Rente sein, politische und demographische Risiken natürlich außen vor.


    Seit 1960 hat sich der Rentenwert (Entgeltpunktwert) bei einer Steigerung von ca. 4% p.a. mehr als verzehnfacht. Es gab Zeiträume mit niedrigeren Zuwächsen, aber auch Zeiträume mit deutlich höheren Steigerungen. So stiegen die Renten während der 70iger-Jahre (Ölpreisschock, hohe Inflation) durchschnittlich um fast 8% pro Jahr.


    Allerdings droht der Deutschen Rentenversicherung - selbst in den Fällen, wo es möglich und zumindest eine Überlegung wert wäre - bestimmt keine Gefahr, von Beratern empfohlen zu werden, denn sie zahlt keine Provisionen...

    Gilt die Zeit für die Reisenden, oder für den ruhenden Beobachter in Greifswald? :P

    Das macht keinen Unterschied. ;)


    Bei einer maximalen Reisegeschwindigkeit von etwas über 28.000 km/h (bei der Passage des Erdmittelpunkts), was gerade einmal grob einem Vierzigtausendstel der Lichtgeschwindigkeit entspricht, können wir relativistische Effekte getrost vernachlässigen.

    Könnte man eigentlich sofort anfangen einen produktiven Reaktor zu bauen

    Klare Antwort: Nein.


    (Sonst hätte es vermutlich schon jemand getan, da es eine sehr interessante Technologie ist.)


    Der Laufwellenreaktor kurz erklärt:


    Gibt es Gott?

    Auf eine einfache Frage eine einfache Antwort: Ich weiß es nicht.


    Doch ich weiß ebenso wenig, ob ich es nicht eines Tages wissen werde.


    Nur gibt es Ausnahmen.

    In der Tat, die gibt es. Das habe ich auch nicht bestritten. Aufgrund solcher Ausnahmen hat sich das Hilbertprogramm letztlich als undurchführbar erwiesen.


    Es macht im übrigen einen Unterschied, ob ich eine Antwort nicht kenne oder ob ich von vornherein ganz genau weiß, dass ich die Antwort gar nicht kennen kann.

    Highlight für mich die Aussage das Moderna Chefs, dass man das Immunsystem noch immer nicht wirklich versteht ;-)

    Eine schöne und ehrliche Aussage.


    Das macht (für mich) aber auch die Faszination an Wissenschaft und Forschung aus. Sie sind stets aufregend und spannend, ganz egal auf welchem Gebiet. Es wird nie langweilig:


    Je mehr wir wissen, desto mehr erkennen wir, was wir alles (noch) nicht wissen. Mit jeder Antwort können und werden wir neue Fragen stellen. Manchmal bekommen wir die Antworten recht schnell, manchmal dauert es aber auch Jahrzehnte oder Jahrhunderte. Und dann gibt es noch die (gar nicht so seltenen) Momente, in denen uns die Natur ganz unverhofft ein paar Antworten vor die Füße wirft, ohne dass wir überhaupt die passenden Fragen dazu gestellt hätten. Das sind die berühmten überraschenden Entdeckungen...


    Ich denke, das ist vielleicht ein guter Augenblick, wieder einmal (monopole hat es zuvor bereits getan) einen der bedeutendsten (deutschen) Mathematiker des 19./20. Jahrhunderts, David Hilbert, zu zitieren:


    Für uns gibt es kein Ignorabimus* und meiner Meinung nach auch für die Naturwissenschaft überhaupt nicht. Statt des törichten Ignorabimus heiße im Gegenteil unsere Losung: Wir müssen wissen, wir werden wissen.


    * Ignorabimus: von Ignoramus et ignorabimus (lat. „Wir wissen es nicht und wir werden es niemals wissen“), ein Ausspruch des Physiologen Emil Heinrich Du Bois-Reymond, der als Ausdruck der Skepsis gegenüber den Erklärungsansprüchen der Naturwissenschaften bekannt geworden ist

    Eine andere Frage ist, ob BioNTech und Co. nur eine einzige Methode haben den Wirkstoff zu umhüllen. Es scheint ja zumindest 2 Varianten zu geben, nämlcih die eine die -70 Grad braucht und dann eine die auch bei normaler Kühlschranktemperatur stabil bleibt.

    Je länger ich zu diesem Thema recherchiere, desto komplizierter (und faszinierender!) wird es.


    Die Lipid-Nanopartikel sind nur eine Möglichkeit von vielen, die mRNA an ihr Ziel zu bringen. Aktuell scheint es jedoch die erfolgversprechendste Variante zu sein. Dabei hat allerdings jeder Impfstoff-Hersteller seine eigene Technologie und bei Moderna gab es diesbezüglich auch bereits die ersten Patentstreitigkeiten.


    Ich muss zugeben, dass ich die Bedeutung der Lipid-Nanopartikel (nennen wir sie LNPs) anfänglich gehörig unterschätzt habe. Im Zahlen & Fakten - Thread schrieb ich kürzlich noch, die mRNA-Impfstoffe seien "die genetische Bauanleitung [...] für ein bestimmtes Virusprotein, verpackt in Lipid-Nanopartikel". Das stimmt auch, aber es erweckt ein wenig den Eindruck, als seien diese LNPs nur so eine Art "dummer Pappkarton" für die darin verstaute RNA.


    Das wird ihnen jedoch nicht gerecht. Abgesehen von den durch sie möglicherweise verursachten Problemen (s.o.) erfüllen sie gleich mehrere Aufgaben, die für die Wirksamkeit und Verträglichkeit der Impfstoffe (mit)entscheidend sind:

    • Stabilisierung der mRNA und Schutz vor verfrühtem (enzymatischem) Abbau
    • Ermöglichung bzw. Erleichterung der Aufnahme der mRNA in die Zellen
    • Ggf. gezielte Steuerung der Aufnahme in bestimmte gewünschte Zelltypen


    Die LNPs scheinen (zumindest aktuell) auch der limitierende Faktor bei der großtechnischen Produktion der Impfstoffe zu sein. Nicht die mRNA als solche und auch nicht die einzelnen Lipide, sondern die gezielte Kombination der mRNA mit verschiedenen Lipiden zu genau definierten LNPs könnte das Hindernis sein, denn das ist nicht gerade trivial und wohl auch nicht so leicht zu automatisieren.


    Ich habe noch einen sehr ausführlichen Artikel mit vielen Hintergrund-Infos zu den Impfstoffen von BioNTech/Pfizer und Moderna gefunden. Neben der DNA-/mRNA-Synthese (von cktest oben bereits angesprochen), den Lipiden, weiteren Inhaltsstoffen und den einzelnen Schritten bis zum fertigen Impfstoff beleuchtet der Artikel auch die Lieferketten, Logistik, Kühlung und vieles andere mehr. Dabei wird auch so ziemlich jedes Unternehmen erwähnt, das in diesen Prozess irgendwie involviert ist bzw. sein könnte:


    Außenperspektive: Die Lieferkette der COVID-19-Impfungen von Pfizer-BioNTech und Moderna

    Gibt es eigentlich Punkte die klar gegen mRNA als Technologie sprechen ?

    Ich habe dazu mal etwas im Netz gestöbert und ich würde das Folgende jetzt nicht als "Punkt, der klar gegen mRNA" spricht bezeichnen, aber ich denke, es ist zumindest ein Aspekt, den man im Auge haben sollte:


    Eine potentielle Schwachstelle der mRNA-Impfstoffe könnten die verwendeten Lipid-Nanopartikel sein. Sowohl BioNTech/Pfizer als auch Moderna (Edit: CureVac ebenso) setzen bei ihren Impfstoffen zur Stabilisierung u.a. auf Nanolipide, welche auf (dem ansonsten völlig harmlosen) Polyethylenglykol (kurz: PEG) basieren.


    Allerdings sind auch dies für das Immunsystem Fremdstoffe, denen es offenbar misstrauisch gegenübersteht und so könnte eine Bildung von Antikörpern gegen ebendiese Nanopartikel - vor allem bei wiederholter Anwendung - möglicherweise (ich formuliere bewusst vorsichtig) zu vermehrten allergischen Reaktionen und/oder zu verminderter Wirksamkeit führen.


    In diesem Artikel von 2019 heißt es dazu (Hervorhebungen von mir):

    Zitat

    A commonly held view is that nanocarriers conjugated to polyethylene glycol (PEG) are non-immunogenic. However, many studies have reported that unexpected immune responses have occurred against PEG-conjugated nanocarriers. One unanticipated response is the rapid clearance of PEGylated nanocarriers upon repeat administration, called the accelerated blood clearance (ABC) phenomenon. ABC involves the production of antibodies toward nanocarrier components, including PEG, which reduces the safety and effectiveness of encapsulated therapeutic agents.


    Das Paul-Ehrlich-Institut (Quelle) schreibt in Bezug auf den BioNTech-Impfstoff zu diesem Thema:

    Zitat

    In summary, the lipid nanoparticles contained in the vaccine, and, in particular, the PEG contained in the vaccine, could be considered as agents triggering hypersensitivity reactions. From the patho-mechanical point of view, potentially pre-existing anti-PEG-IgM and/or IgG (theoretically: IgE also possible) in vaccinees could also be present (sensitisation could occur e.g. by cosmetics) [...], or even be caused by the first vaccination itself. Alternatively, the hypersensitivity reaction is non-specifically (non-immunoglobulin mediated) caused [...] by lipid particles. Predictive test methods, which could point to or rule out the occurrence of a (pseudo) allergic intolerability reaction in connection with a COVID-19 vaccination, are not available.


    Für Personen mit einer bereits bestehenden (u.a. PEG-)Allergie oder solchen, die nach der ersten Dosis allergische Reaktionen aufweisen, sieht das Paul-Ehrlich-Institut den Impfstoff als kontraindiziert an:

    Zitat

    However, a previously known allergy to the substances contained in the vaccine (e. g. PEG) presents a contraindication, as well as a reaction to the first dose of the COVID-19 vaccine, which presents a contraindication for administering the second dose.


    Das "Problem" könnte also weniger die (leider sehr instabile) mRNA an sich sein, sondern vielleicht eher die (stabilisierende) Verpackung drumherum. Das erinnert ein bisschen an die Vektor-Impfstoffe mit ihrem Problem der vektor-spezifischen Immunität, wenngleich die Auswirkungen hier bei weitem nicht so gravierend zu sein scheinen.


    Ob und wie sich unerwünschte Immunreaktionen gegen die in den mRNA-Impfstoffen verwendeten Lipid-Nanopartikel auf die Sicherheit und Wirksamkeit der Impfungen (und besonders auf die von evtl. nötigen Folgeimpfungen) auswirken und wie die dabei ggf. auftretenden Probleme gelöst oder umgangen werden können, das könnte eine der entscheidenden Fragen sein, die über den dauerhaften Erfolg der mRNA-Impfstoffe mitbestimmen...

    Ich denke ich werde mir auch zu Vergleichs und Beobachtungszwecken ein paar Musterdepots anglegen, da gibts ja einige Anbieter, viele mit kostenpflichtigen Zusatzinfos. Könnt ihr da nen guten Anbieter empfehlen? Mein Broker bietet das leider nicht an.

    Hallo INVnebwie,


    auch von mir noch ein Herzlich Willkommen im Forum!


    Da du nach Musterdepots gefragt hattest: Vielleicht wäre die comdirect was für dich. Dort kann man kostenlos mehrere Musterdepots anlegen, ohne selbst Kunde sein zu müssen. Ich mache das auch so (war früher mal Kunde) und bin eigentlich ganz zufrieden. Man muss sich nur für den Zugang zu "Meine comdirect" registrieren.


    Ich kann allerdings nichts dazu sagen, wie gut das im Vergleich zur Konkurrenz ist, da ich meine Musterdepots schon seit Ewigkeiten dort führe und noch keinen anderen Anbieter ausprobiert habe.

    Diese ganzen schönen und einfachen Modelle (CAPM, VaR und wie sie alle heißen) haben meines Erachtens zwei grundlegende Schwächen:


    1. Unzutreffende Modellannahmen


    Um die Wirklichkeit in ein Modell zu gießen, muss man sie vereinfachen. Dagegen ist ertsmal nichts einzuwenden. Problematisch wird es aber, wenn man sie zu stark vereinfacht. Dann hat man am Ende zwar ein schönes und leicht zu handhabendes Modell, nur dummerweise hat dies (oft genug) nicht mehr viel mit der Realität zu tun.


    Ein schönes Beispiel ist die Normalverteilungsannahme bei Aktien: Die Renditen von Aktien seien normalverteilt, liest man immer mal wieder. Das ist schön, nur stimmt es leider nicht. Aktienkurse machen Sprünge, es gibt extreme Ereignisse (öfter als dem Modell lieb sein kann), die Verteilungen haben Ränder, fette Ränder. Dazu kommt noch, dass die Volatilität keine starre Größe ist, wie oft angenommen. Das sollte spätestens jedem klar sein, der sich die Charts des VDAX bzw. VIX vom letzten Jahr ansieht. Für uns hier ist das alles nichts Neues, aber andere scheinen damit Probleme zu haben...


    2. Vergangenheitsbezogenheit


    Gut, die oben angesprochenen Einwände lassen sich beheben. Das kann man alles in die mathematischen Modelle rein stopfen, wenn man will: Sprungkomponenten, zeitlich veränderliche Volatilität, nicht-observable stochastische Driftprozesse, was einem halt so einfällt. Da tut sich aber gleich ein neues Problem auf, nämlich das Problem der Parameteridentifikation - bei solchen Modellen sind es leider mehr als nur μ und σ.


    Es ist schon schwer genug, überhaupt Methoden zur Behandlung derartiger inverser Probleme zu finden. Die Rechnungen dann auch noch mit hinreichender Genauigkeit und numerisch einigermaßen stabil hinzubekommen, erschwert die Sache zusätzlich. Abhilfe schaffen können zusätzliche Daten. Aber wo bekommt man die her? Von da, wo in diesen Fällen sämtliche Daten herkommen: aus der Vergangenheit.


    Je komplexer die Modelle werden, desto weiter wird man den Beobachtungszeitraum in die Vergangenheit ausdehnen müssen, um die entsprechenden Parameter zu schätzen. Wenn man Glück hat, kommt dabei ein Modell heraus, das ziemlich gut passt - für ebendiese Vergangenheit. Das kann dann auch zukünftig funktionieren, aber meistens nur solange sich nichts Gravierendes ändert.


    Manchmal gibt es aber gravierende Veränderungen, ein kleines Virus zum Beispiel, das niemand auf der Rechnung hatte. Mit einem solchen "schwarzen Schwan" können diese Modelle jedoch nicht umgehen. Im dümmstmöglichen Fall verlieren die Verantwortlichen irgendwann die Nerven, schmeißen das ganze Modell komplett über den Haufen und schichten genau zum falschen Zeitpunkt um. Etliche Riester-Fondssparer können ein Lied davon singen...


    An der Stelle sind wir auch bei der Sache mit den chaotischen Attraktoren angekommen, die woodpecker hier so schön beschrieben hat. Aber wie will man diese "Katastrophen" und die damit verbundenen Konsequenzen in einem (einfachen) Modell berücksichtigen? Antwort: Es geht nicht, es sei denn man hat - wie Jim Simons - den "Heiligen Gral" gefunden oder gibt dies zumindest vor.


    Kurzum, ich halte nicht viel von derartigem "dynamischem Risikomanagement", denn es ist in vielen Fällen letztlich doch nur eine mehr oder weniger statische Extrapolation der Vergangenheit in die Zukunft, was früher oder später schief geht. Beispiele dafür gibt es zur Genüge.

    Ein eigener Thread zum besseren Wiederauffinden...


    PS wie macht man einen Link auf einen Thread?

    Erstmal Thread-URL als Ziel nehmen und dann kommt's drauf an, wo du genau hin willst:


    An den Anfang springen (nur URL)

    Code
    1. [url='https://www.antizyklisch-investieren.com/index.php?thread/2798-der-gute-nachrichten-thread/']Der "Gute Nachrichten" Thread[/url]

    wird zu Der "Gute Nachrichten" Thread


    An das Ende springen (&action=firstNew an URL anhängen)

    Code
    1. [url='https://www.antizyklisch-investieren.com/index.php?thread/2798-der-gute-nachrichten-thread/&action=firstNew']Der "Gute Nachrichten" Thread[/url]

    wird zu Der "Gute Nachrichten" Thread


    Zu einem bestimmten Beitrag springen (Beitrags-Nummer anklicken, da gibt's alles was man braucht)

    Code
    1. [url='https://www.antizyklisch-investieren.com/index.php?thread/2798-der-gute-nachrichten-thread/&postID=169996#post169996']Juhu, der BER ist fertig![/url]

    wird zu Juhu, der BER ist fertig!

    Bei der Aufforstung kommen die von MMI genannten 4 m2 von der Größenordnung her schon ganz gut hin, vor allem bei Nadelhölzern. Bei Laubbäumen sind die Werte sogar noch etwas geringer, die kann man enger pflanzen.


    Natürlich muss man die Jungbestände danach regelmäßig pflegen und dabei u.a. die Anzahl der Bäume wieder systematisch reduzieren. Unterlässt man dies (wie z.B. hier bei uns nach der Wende mit einem noch zu DDR-Zeiten angelegten Buchenbestand geschehen), dann wird durch das fehlende Licht und die starke gegenseitige Konkurrenz das Wachstum der Bäume spürbar gehemmt. Es bildet sich keine vernünftige Krone, das Wurzelwachstum bleibt zurück und daraus folgend lässt auch und ganz besonders das Dickenwachstum der Stämme erheblich nach. Im Ergebnis wird ein Teil der Bäume ganz eingehen und der Rest wird zu langen, dünnen "Bohnenstecken", die - auch wenn man dann später doch noch eingreift - zu großen Teilen irgendwann einfach umfallen (z.B. durch Sturm oder Nassschnee, besonders wenn das Laub noch dran hängt).


    Aber ich schweife schon wieder ab. Jedenfalls, wenn man kräftige und gesunde Bäume will, die einen guten Holzertrag bringen und dadurch im Laufe ihres Lebens auch noch große Mengen an CO2 aufnehmen, dann muss man ihnen ermöglichen, sich mit ihren Wurzeln und Kronen nach und nach auszubreiten. Je nach Baumart und Kulturform kommt man da auf ganz unterschiedliche Werte. Als grobe Richtschnur kann man - nach neueren waldbaulichen Konzepten - für einen Buchenbestand (um mal bei dem Beispiel zu bleiben) am Ende von etwa 80 Bäumen pro Hektar ausgehen. Wie gesagt, es ist nur ein grober Wert, aber das wäre dann immerhin schon ein Flächenbedarf von 125 m2 pro Baum und damit deutlich mehr als die 4 m2 von oben.


    Na gut, am Anfang stehen auf der neu bepflanzten Fläche also viele kleine Bäumchen, die jedes für sich nur eine sehr geringe Menge CO2 absorbieren. Im Laufe der Zeit verringert sich dann die Anzahl der Bäume - ob durch forstwirtschaftliche Maßnahmen oder auf natürlichem Wege sei jetzt mal dahingestellt - und gleichzeitig erhöht sich die CO2-Aufnahme der noch verbliebenen Bäume, da sich deren Zuwachs an Biomasse mit ihrem Wachstum (zumindest bis zu einem gewissen Alter) beschleunigt.


    Oh weh, ein Zuwachs, der zunimmt. Da betrachten wir also schon die zweite Ableitung. Und das alles sehr wahrscheinlich auch noch nichtlinear. Ebenso nichtlinear dürfte der Rückgang der Baumanzahl verlaufen. Und am Ende kommt noch ein Integral drumherum, denn uns interessiert ja die Summe. Nein, nein, an der Stelle fange ich das Rechnen gar nicht erst an...


    Im Ergebnis können wir aber dennoch sagen, die 4 m2 von oben können nicht hinkommen, denn dann müssten all die kleinen Bäumchen groß und alt werden und das geht nicht. Die 125 m2 aus meinem Buchen-Beispiel sind aber ebenso wenig zutreffend, denn dann würden wir alle Bäume, die nicht bis zuletzt stehen geblieben sind, gänzlich unterschlagen, was auch Unsinn ist. Die Wahrheit befindet sich also irgendwo dazwischen. Abhängig von der Baumart liegt Balkenchart mit seinem Faktor 4 bis 16 daher vielleicht gar nicht so schlecht.


    Quellen: Keine, außer eigene Beobachtungen und Gespräche mit dem Förster.

    Hihi, nette Spielerei.


    Eine Barren-Fälschung mit Wolfram kann man damit - im Gegensatz zur Dichtebestimmung - unter Umständen tatsächlich überführen (solange der Wolfram-Anteil hinreichend groß ist).


    Die Goldmünze mit dem Silberkern aus meinem Beispiel von oben erkennt man auf diesem Wege jedoch nicht. Ebenso fehlschlagen wird es bei Fälschungen mit etlichen anderen Metallen wie z.B. Kupfer, Blei und Zink. Die sind nämlich wie Gold selbst alle diamagnetisch und dafür ist das dann viel zu ungenau.

    Der kleine Bürger kauft nicht wie in Deutschland kleine Goldbarren , sondern kleine Goldmünzen beim Juwelier vor Ort oder verkauft an den Juwelier. Aber die Juweliere kaufen mit hoher Vorsicht das Golden der Kunden ein. Denn viel Gold ist gefälscht:

    Silber Münzen mit einer dicken Schicht mit echtem Gold sind auf den Markt gekommen. Der Juwelier vor Ort kann das mit den normalen Tests nicht herausfinden und muss es zum "Schmelzer" einschicken und das dauert.

    Hmm, die Fälscher sind sicher erfinderisch, keine Frage, aber ich kann mir das trotzdem nicht so recht vorstellen, gerade bei den Münzen.


    Die hierzulande gängigen Anlagemünzen - und das wird in der Türkei doch bestimmt nicht viel anders sein - haben alle ganz spezifische Eigenschaften was ihr Münzgewicht und die Abmessungen angeht. Dies kann man mit relativ einfachen Mitteln (Waage und Messschieber) auch leicht nachprüfen. Sollte es dabei (unter Berücksichtigung zulässiger Toleranzen) zu Abweichungen kommen, dann handelt es sich mit Sicherheit um eine Fälschung.


    Und falls diese "Soll-Werte" - aus welchen Gründen auch immer - nicht bekannt sind, kommt man mit der Waage und dem Messschieber trotzdem weiter:


    Man wiegt die Münze und erhält so ihre Masse (in g). Dann bestimmt man die Abmessungen der Münze und berechnet daraus das Volumen (in cm3). Zum Schluss teilt man die Masse durchs Volumen und erhält die (mittlere) Dichte der Münze (in g/cm3).


    Kommt dabei für eine Münze, die angeblich aus reinem Gold besteht, ein Wert heraus, der deutlich(*) unter 19,3 liegt, dann kann man wiederum mit Sicherheit sagen, dass die Münze gefälscht sein muss. Wenn der Wert hingegen "passt", dann ist das ein starkes Indiz dafür, dass die Münze echt ist (allerdings kein hundertprozentiger Beweis). Die 19,3 gelten aber nur für reines Gold, für Goldlegierungen ergeben sich andere Werte.


    (*) Durch Messungenauigkeiten bei der Bestimmung der Abmessungen (Prägung, unebener Rand usw.) wird der berechnete Wert wahrscheinlich ohnehin etwas kleiner ausfallen.


    Ein Beispiel (angelehnt an die mit Gold überzogenen Silbermünzen):


    Angenommen, eine gefälschte Münze besteht nur zur Hälfte aus purem Gold (außen) und zur anderen Hälfte aus Silber oder Kupfer (innen), dann wird man mit der obigen Methode Werte von etwa 15 (innen Silber) bzw. 14 (innen Kupfer) ermitteln. Das ist in beiden Fällen deutlich weniger als 19,3 und der Schwindel damit entlarvt.


    Je dicker natürlich die äußere Goldschicht, desto schwerer wird es, mit dieser Methode Fälschungen zweifelsfrei zu entdecken. Allerdings muss die Schicht dazu schon seeehr dick sein und gerade bei kleinen Münzen kommt man damit vermutlich schnell an einen Punkt, wo sich das für die Fälscher einfach nicht mehr lohnt. Es sei denn, die betreiben ihr Geschäft als Massenproduktion...

    Aus der Reihe: sind denn jetzt alle bekloppt ?


    Heute hat der Bezugsrechtsabschlag der TUi zu einem ordentlichen Kurssprung geführt. Da haben wohl einige Privatanleger gedacht dass es einSchnäppchen gibt. Sowas müsste man eigentlich "gnadenlos wegshorten"

    Etwas ähnlich Verrücktes ist vor ein paar Wochen auch bei Pacifico Renewables Yield (das neue grüne Samwer-Vehikel) passiert.


    Auch dort gab es eine größere Kapitalerhöhung mit Bezugspreis deutlich unter Börsenkurs. Das Bezugsrecht hatte einen erheblichen Wert und der Bezugsrechtsabschlag hätte dementsprechend groß sein müssen. Hätte. Stattdessen ist der Kurs am Ex-Tag nur ganz kurz gefallen und hat dann in Windeseile fast den gesamten Bezugsrechtsabschlag wieder wett gemacht.


    In den folgenden Tagen ging's dann aber doch noch runter. Da haben es die "Schnäppchenjäger" vielleicht begriffen.


    Edit (gerade erst gesehen): Wer - wie woodpecker im Lage-Thread geschrieben hat - auf Nachfrage, ob er sich denn Kennzahlen oder den GB angesehen hat, nur verständnislos dreinblickt, der wird natürlich auch nicht wissen, was 'ne Kapitalerhöhung oder ein Bezugsrechtsabschlag ist...

    Ist es also nötig dass ich noch 2020 verkaufe, oder geht 2021 auch, nur nicht mit Totalverlust?!

    Das kann dir im Moment niemand mit Sicherheit beantworten.


    Wenn du noch 2020 verkaufst, ist jedenfalls alles wie gehabt. Was 2021 ist, steht m.W.n. derzeit immer noch in den Sternen. Im Moment herrscht erst mal Ratlosigkeit, ebenso bei den Banken, die das ggf. auch noch irgendwie umsetzen müssten - womöglich mit einem dritten Verlustverrechnungstopf.


    Wie das Gesetz - wenn es mal fertig ist - wirklich aussieht, weiß keiner. Es besteht zudem noch die Möglichkeit, dass das Finanzministerium am Ende mittels Erlass (BMF-Schreiben) das eigene Gesetz zumindest in Teilen wieder aushebelt. (Es war schon davon die Rede, Optionsscheine und Zertifikate per Verwaltungsanweisung nicht zu den steuerlich relevanten Termingeschäften zu zählen.)


    "Gesetze sind wie Würste. Man sollte besser nicht dabei sein, wenn sie gemacht werden."


    PS: Ich will jetzt aber keine rein steuerlich motivierten Anlageentscheidungen provozieren. Das geht oft genug nach hinten los. ;)