Contact-Page of Verena Hanks & Heinz M. Hanks

Verena Hanko

MA MAEIS ,  EU - Policy Officer 

🇦🇹🇪🇺

Please select, bitte wählen Sie aus, veuillez choisir, por favor, seleccione↑↓

DataScienceInvestigationHistoryMediaArt

Verena Hanko

MA MAEIS 

Policy Officer in European and International Organisations 

🇦🇹🇪🇺

EDUCATION


2019/20 Masterstudium „Advanced European and International Studies (MAEIS) – European Policy and Governance”, Trilingual Studies, CIFE (Centre International de Formation Européenne), Nizza, Canterbury, Berlin 


2018 Lehrgang „Medienkompetenz – Inspirationen, Werte und Interkulturalität für eine zeitgerechte Mediengestaltung“, Wien, Figlhaus 


2017/18 Lehrgang „Neuer Schwung für Europa“ des CIFE, Ausbildung zur EU-Expertin, Wien, Figlhaus


2016/19 Masterstudium „Romanistik“ (Hauptfach Französisch), Fokus „Interkulturelle Kommunikation“, Universität Wien


2014/15 Erasmus-Semester an der Université catholique de l’ouest (UCO), Angers, Frankreich


2012/16 Doppelstudium Bachelor „Romanistik“ und „Philosophie“, Universität Wien


2011 Gymnasium GRG 15 Auf der Schmelz, Sprachzweig (Englisch/Französisch), Matura mit ausgezeichnetem Erfolg

WORK


2021/ Fach-Referentin für Integration Österr. Bundeskanzleramt 


Sektion II - Integration, Kultusamt und Volksgruppen
Abteilung II/2­ – Integrationskoordination
Referat Wissensmanagement und Integrationsmonitoring


2019 Projekt-Mitarbeiterin „Talk-Team Figlhaus“, Organisation von Podiumsdiskussionen in den Bereichen Politik, Kultur und Medien


2017/18 Marketing-Assistentin, Tageszeitung „derStandard“, Kundenberatung


2017 Hilfswissenschaftlerin am Forschungskongress „Vienna’s Role in the Development of the Mind Sciences“ an der Universität Wien, Gästeempfang- und Betreuung


2014 Tutorin im Fach „Logik“ (Philosophie) an der Universität Wien


2012/18 Lernquadrat, Nachhilfe in den Fächern „Französisch“ und "Englisch"


2012/13 Tanz-Lehrerin, Tanzschule Stanek, Wien



PAPERS


2020 „Das bedingungslose Grundeinkommen – ein soziales Modell für Europa?“, Masterarbeit


2019 „L’intelligence artificielle et la société de données à l’exemple d’une analyse de discours du scandale
« Facebook - Cambridge Analytica » dans la presse française“, Masterarbeit


2020 „Spreading human rights and democracy? – The EU as a normative actor in times of change“, Artikel für das akademische Journal Kent Political Almanac special edition, University of Kent


2016 "Hast du un stylo ? Analyse syntaxique des alternances codiques à l'exemple du couple de langue français - allemand", Bachelorarbeit


2016 "La conversation française en tant que lieu de mémoire", Bachelorarbeit


2020 "Report on Austria’s economy" macroeconomic, macrosocial, demographic and international indicators, CIFE


2020 "The mediation in the Bosnia war (1992-1995) - An analysis of the U.S. mediation in the Dayton Peace Agreement", University of Kent





 
 
 
 


DATA - SCIENCE - INVESTIGATION - HISTORY - MEDIA - ART


HEINZ M. HANKO


global contact

NOBILEGASSE 40

1150 WIEN

AUSTRIA


regular email

HEINZ@HANKO.CC

confidential/encrypted email 

HANKO@PROTONMAIL.CH


text/signal

+43 680 230 49 30

Threema: BYU7EB46


(not available on any platforms as Instagram, Facebook, LinkedIn, Xing, TikTok, etc - no clouds)





Langfristige Projekte
(Intentionally no navigation provided - deep links on invitation.
Exception: this german abstract about some longterm-projects)

B\ook ist das konzeptionelle Framework für die globale, universelle Datenbank des gesicherten Wissens. Es referenziert auf die jeweiligen Quelldaten und schließt konkurrierende Datenlagen sowie die Zeitachse mit ein. Die Informations-Einheiten sind kleinstmöglich definiert und jeweils direkt und eindeutig adressierbar.

Ziel 1 ist die Reduzierung der Redundanzen von Referenzmaterial, die Transparenz von dessen Auswahl, sowie der jederzeitige Überblick über divergierende/konkurrierende Datenlagen und deren Interpretation bzw. Kontext-Bildung.


Durch die unstrittige Hinterlegung der einzelnen Informations-Einheiten bilden diese eine Art " Landkarte" mit Wegpunkten. Sach-Abhandlungen jeder Art brauchen diese Inhalte nicht mehr zu übernehmen, sondern nur mehr darauf verweisen. Der Großteil von Arbeiten/Büchern kann daher aus der individuellen Wegstrecke bestehen, und sich auf den Mehrwert beschränken. Wobei auch diese Arbeiten als eigene Informations-Einheiten definierbar sind. Das Buch als solches wird damit zur "Route", Rezipienten haben den transparenten Zugriff auf den Pfad und auf die Auswahl-Methode.


Ziel 2 ist die Entkoppelung von Autor und Werk. Der Fehler- resp. strittige Anteil von Werken ist damit isolierbar, ohne die gesicherten/akkordierten Anteile zu diskreditieren. Weiters verschiebt sich der Fokus weg von der Historie/Genese von Erkenntnissen hin zum verwendbaren Letztstand. Damit kann ein Großteil der Personen-gebundenen resp. weltanschaulich motivierten Diskussionen über Sachfragen entfallen. Dieses Prinzip ist sogar für philosophische Abhandlungen und Konzeptionen anwendbar. Der Großteil der Grundlagen für den Streit konkurrierender Denkschulen, Lehrmeinungen und Personenbindungen fällt weg, da die Einzel-Informationen transparent und im Überblick einsehbar sind, sowie Manipulation durch selektive Auswahl jederzeit und von jedermann überprüfbar ist.


B\ook als ultimative methodische Umsetzung des Wissenschaftsgedankens, da Wissenschaft ja nicht für Inhalte steht, sondern eine Methode darstellt.



Z\oom ist das konzeptionelle Framework für die frei regelbare Darstellung von Information nach Kriterien wie Umfang, Komplexität, Sprache und weiteren Optionen. Wobei die Basiseinheit, die Minimaleinheit, ein Absatz Text und Vergleichbares darstellt. Die on the fly und individuell in ihrer Darstellungsform angepasst werden können. Technisch durchgeführt wird dasKI- / AI - gestützt, eine Vorab-Aufbereitung ist nicht erforderlich.


Z\oom als Name leitet sich von der Analogie zur Bildbearbeitung ab: Rezipienten können Ausschnitts-weise sowol die Zoom-Stufe als auch weitere Darstellungs-Optionen wählen, und sind dabei von den Basisdaten entkoppelt. Auf Text-Ebene umgelegt kann für jeden Absatz / Informationsblock "per Schiebe-Regler" ausgewählt werden, wie der Inhalt dargestellt werden soll. 


Illustration: Absatzweise kann die Komplexität der Sprache, die Sprache selbst, sowie der Umfang (von One-Liner über Abstract bis Volltext) eingestellt werden. Weiters Optionen wie interne und externe Querverweise etc.


Ziel ist die massiv erhöhte Reichweiten-Möglichkeit von Werken, und die individuell optimierte Lesbarkeit. Weiters fällt die Mühsamkeit von Fußnoten/Zitaten, und von nur der Verständlichkeit dienenden, redundanten Parallel-Darstellungen/Ausdrucksweisen de facto weg. (Vor allem in Kombination mit B\ook)



W\ord stellt eine neuartige Landkarte des Denkens dar. Ausgangsgröße ist das Wort im Sinne von Begriff resp. Begrifflichkeit. Ohne Wertung per se werden die Fragen der Menschheit und deren Werte-Kataloge auf ihren strukturellen Ursprung zurückgeführt. Ebenfalls als Art geistige Landkarte lassen sich auch tagesaktuelle Fragen, Probleme, und strittige Ansichten strukturiert verorten.


Ziel ist es, den Diskurs auf eine transparente, nachvollziehbare Basis zu stellen. Sowie Nicht-Probleme aus solche zu identifizieren. Ziel ist nicht die Gegenüberstellung divergierender, konkurrierender Denkweisen resp. Weltsichten. Sondern die methodische Ermöglichung eines effizienten Diskurses durch nachvollziehbare Verortung der jeweiligen Aussagen innerhalb der jeweiligen Struktur, und weiters deren Vergleichbarkeit. Sowohl Brüche in der Stringenz, der Logik oder der Genese werden so sichtbar - und ebenfalls die unstrittigen Parallelitäten.


Auch hier liegt ein Schwerpunkt auf der Entkoppelung von einzelnen Aussagen / Informationen / Informationsblöcken  heraus aus den Gesamtwerken - ob Denkschulen, Religionen, Wertekatalogen oder individuellen Proponenten. 


S\ee ist die komplette Neukonzeption des Prinzips Suchmaschine. Sie übernimmt die Erkenntnisse der Hirnforschung, und ergänzt die bisherigen Such-Methoden um den entscheidenden Teil der -> Struktur, der dem menschlichen Denken wesentlich näher kommt. 


Das Ausgangs-Problem:

Es ist eine Binsenweisheit, dass die Gesamtmenge der vorhandenen Daten jeder Art bereits die herkömmlichen Computertechniken, die auf Worten und Zahlen beruhen, bei Weitem überfordern. Selbst KI-Systeme sind nur eingeschränkt anwendbar: sie sind per se auf Einzelanwendungen fokussiert, müssen trainiert werden, und ihre inneren Algorithmen de facto eine Black Box, Fehler darin sind schwer bis gar nicht korrigierbar.


Der prinzipielle Fehler bei herkömmlichen Suchmethoden besteht darin, dass nur Daten indiziert und gefunden werden können - die daraus ableitbaren Zusammenhänge und Strukturen müssen in Folge weiterhin im Gehirn des Bearbeiters/Suchers gebildet oder erkannt werden. Werden viele Daten als Input verwendet, erhöht das zwar die Genauigkeit bei der Strukturerkennung, überfordert aber in der Menge die technische, und vor allem die menschliche Logistik.


Muster-Erkennung diverser Art ( siehe KI ) gibt es zwar, hat aber zu den o.g. Limitierungen den Nachteil der asymmetrischen Resourcenverteilung: zentrale Systeme müssen mit viel Aufwand Erkenntnisse generieren, die bei den vielen Erstellern der Rohdaten längst vorliegen - und die obendrein grundlegende Fehler mit geringstem Aufwand korrigieren könnten. Nur wird deren Wissen bisher gar nicht erfasst. 


Das ist nicht nur wirtschaftlich eine bisher vergebene Chance, sondern auch ein gesellschaftspolitisches Problem: die Generierung von "Herrschaftswissen" liegt bereits in der DNA dieser Systeme.


Basis des Gedankens sind die Erkenntnisse der modernen Hirnforschung, die widerspruchsfrei belegt haben, was inzwischen common sense ist resp. sein sollte: Gehirne arbeiten völlig anders als Computer und ihre Datenspeicher. In der überwiegenden Mehrzahl der Anwendungen spielt das Einzel-Datum bis zu den letzten Verarbeitungsschritten gar keine Rolle, sondern tritt erst im Finale auf. Während der herkömmliche Computeransatz genau umgekehrt ist.


Der Lösungs-Ansatz:

Daten-Erstellern wird die technische Möglichkeit gegeben, die ihnen bekannten Strukturen innerhalb ihrer Daten (einschließlich Texte) parallel mit zu erfassen resp. (nachzu)indexieren. Durch eine standardisierte Form dessen ergibt sich die Möglichkeit der lokalen Suche genauso wie die der zentralen Weiterverarbeitung, einschließlich derer durch herkömmliche Suchmaschinenlogistik.


Zur Unterstützung dieser Erfassung werden FrontEnd-Tools genauso eingesetzt wie lokale KI-Methoden (analog zu zB "Auto-Verschlagwortung"). Die Qualitätssicherung erfolgt damit bereits direkt an der Quelle.


Ziel ist die dramatisch höhere Relevanz der Suchergebnisse, der themenübergreifende Zugriff auf Erkenntnisse, die Reduzierung des Suchaufwandes, die reale Neuverteilung des technischen Aufwands (einschließlich dessen Reduzierung für alle Beteiligten), und nicht zuletzt die volkswirtschaftliche Entlastung: je höher eine Gesellschaft technisiert (im umfassenden Sinne) ist, desto höher der anteilige Aufwand beim Suchen nach Lösungen und Antworten jeder Art, zudem steigt die Bindung an einzelne Wissensträger.