Page tree
Skip to end of metadata
Go to start of metadata

Materiaalia "Accountability of Digital Trust" -hankkeeseen

Tehtävät keskiviikolle:

  • (Alustavat) tutkimuskysymykset: missä on riski? mikä on epävarmaa? mikä on uutta? mikä on tutkimuksellista? onhan tämä varmasti esikilpailullista?
  • Ketkä tarvitaan mukaan: joko toimijatyyppinä (dataoperaattori, komponenttitoimittaja, loppuasiakas, jne.) tai oikeilla nimillä (parempi vaihtoehto).
  • Aikataulu: mitä tehdään ensin ja mikä voi odottaa? pitääkö asiat tehdä peräkkäin vai voiko niitä tehdä rinnakkain?
  • Työmäärä: jonkinlainen arvaus siitä, kuinka suuresta harjoituksesta on kyse.

Overview/Description

The challenge: accountability of data in transit.

Reduced to simplify, the challenge is whether one party can trust that

  1. the data that was sent has been received, when sent for delivery, and
  2. the data (e.g. malware) was not sent by / received from the other party.


There will be potentially huge amounts of data, partially confidential and private. Study of what data to collect and how, points of analysis, preprocessing of the data.

AI:lle alkuperäinen aineisto täysin muuttamattomana
What is new: AI that can process the respondents (IPs) and the content : )


Accountable suomennos on vastuuvelvollinen. Ks. https://fi.glosbe.com/fi/en/vastuuvelvollinen

Preliminary research questions

(Note! Topics related to "Digital Identity" are solved in another DTF topic)

Authentication of data in transit:

  • ResearchQ1.1: How can we authenticate data transmission? (What has been sent? What has not been sent? Who is actual/original sender? Who is the actual/original receiver? What has been the route?). Phasing: Y1-2.
  • ResearchQ1.2: Which detection and authentication services, modified for generalisation and repetition, can be provided as continuous service (by a SOC). For example, http://www.firegenanalytics.com/downloads/one_page_security_architecture_v1.pdf . Phasing: Y2-4.

Incident governance model:

  • ResearchQ2.1: How can we find the original source of data? Based on the content of the message and the IP packet data. (Based on anonymous IP / imperfect and 3rd party data that this server appears in X as well.) Bearing in mind the legal aspect: which data can (usually) be collected, by whom, and shared, with who? At the level of relevant stakeholders: between the companies, the countries and the authorities. How the process could be speeded up (from quarters, to months, to days, to seconds). 
  • ResearchQ2.2: The process aspect: Preparatory phase in Q2.1, Action phase: incident scene management (product liability as an example), criminal case (chain of custody, to be on the safe side), collection of evidence (in authentic copies, when needed). Who can authorise the actions?

Best practices:

  • ResearchQ3.1: Anomaly detection in multi-source case - at which abstraction (cf. OS) layer the anomalies can be reliably detected (address, language, terminology, content, timing, sequence/order of events, outlier in the standard practice like printer sending extra data to one subscriber) cf. DaaSS (DDoS as a Smoke Screen). How huge data (initial unchangeable data) is used as smoke screen, and how we can distill useful information from the huge data, cumulating in fast pace. Whether there are suspicious responsibility combinations and authorisations.
  • ResearchQ3.2: How can the really huge and fast developing data sets be efficiently analysed (e.g. creatively combining the statistics, AI and ML methods; to be evaluated: parallel processing of e.g. separate-source data, semantic treatment and language approaches).
  • ResearchQ4: How can exposure to a zero-day attack be analysed - has the vulnerability already been used in our hosts or network devices?

Visualization:

  • ResearchQ5: How to visualise the cyber-status to different types of stakeholders? Including Senior Management (in € and $), cyber audit needs (external == statutory & for internal accounting by external).

How to support financing to explain what has happened (to the press, the main partners, the owners). 

Key deliverables

How will this improve competitiveness of the Finnish industries?

Improved profitability? Increased revenues and profits? More jobs?

Increased export?

Key activities (within use cases)

  1. Toimialan valinta
  2. Arkkitehtuurianalyysi ml. liiketoimintahyötyjen kartoitus
  3. Tietoverkossa kulkevan datan oikeat keräilypaikat
  4. Keräinten asennus
  5. Datan keräyksen alkaminen ja päättyminen (aika)
  6. Datan luovutus ja vastaanotto tutkimukseen, digitaalinen forensiikkaan ja sisäiseen (tilintarkastusyhteisön tekemään) tarkastukseen
  7. Datan käsittely AI:lla
  8. Tutkimus ja algoritmien sovitus/kehitys
  9. Hyötyjen kartoitus ja tulosten raportointi
  10. Jatkosuunnittelu

Stakeholders/Contributors

Minkä tyyppiset toimijat tarvitaan mukaan? Esimerkkejä toimijoista, jotka voisi/pitäisi saada mukaan? Aikataulu? Työmäärä → kustannusarvio?

  • dataoperaattori?
  • sensorien asentaja? mittausdatan kerääjä?
  • mittausdatan siivoaja? data-analyytikko?
  • datan visualisointi?
  • ohjelmoijat?
  • loppuasiakkaat?

Companies

  • ABB, Andriz, Cargotec/Kalmar, Fastems, Kone, Konecranes, Kongsberg, Metso, Wärtsilä
  • Ericsson, Nokia, Bittium, Netox
  • Sanoma/Nelonen, YLE, Aller Media/MTV3
  • OP, Nordea, Fennia, Posti/Opus Capita
  • Tilin/toiminnantarkastusyhteisöt?
  • Telia (Julkishallinto), Elisa, Telenor/DNA
  • CySec Ice Wall Oy, F-Secure, SSH, Tieto

Research organizations and researchers

  • VTT / Reijo Savola, Pekka Savolainen
  • Aalto University / Olli Pitkänen (technical + legal) / Virpi Roto (user interface)
  • Tampereen yliopisto / Signaalinkäsittely Moncef Gabbouj
  • Helsingin yliopisto / Tommi Mikkonen, Raimo Lahti (juridiikka)
  • Oulun yliopisto (6G) / Jaakko Sauvola
  • JYU+JAMK / Aimo Pellinen

Public authorities

  • VNK, Supo, Puolustusministeriö, Huoltovarmuuskeskus, Kyberturvallisuuskeskus, Viestintävirasto, Väestörekisterikeskus


Write a comment…