Hoppa till huvudinnehåll
Språkbanken Text är en avdelning inom Språkbanken.

Alla nyheter

Jenny Kierkemann Jenny Kierkemann
NoDaLiDa workshop, Online, May 31 2021
Jenny Kierkemann
Nu finns en ny version av textanalysverktyget Sparv. Sparv märker upp texter med lingvistisk information och är ett av många språkteknologiska verktyg som utvecklats inom Nationella språkbanken.
Dimitrios Kokkinakis
As the COVID-19 virus became a pandemic in March 2020, the amount of (time-stamped written) data, such as news/newspaper reports, scientific articles, social media posts (e.g. blogs and twitter), surveys and other information about the virus and its symptoms, prevention, management and transmission became massively available.
Yvonne Adesam
Artificial intelligence system dealing with (human) natural language rely on language models, predictions of which words occur together.
Peter Ljunglöf
25-27 november gick den åttonde upplagan av SLTC, Swedish Language Technology Conference, av stapeln på Humanisten här i Göteborg.
Aleksandrs (Sasha) Berdicevskis
We at Språkbanken Text have just released a new corpus of native (L1) and non-native (L2) speech in four languages: English, Spanish, French and Italian.
Anne Schumacher

En ny version av Språkbanken Texts korpuspipeline Sparv har nu släppts. I den här versionen har vi skrivit om Sparv från grunden och gjort verktyget mer användarvänligt. Sparv har även fått nya språkmodeller som leder till en bättre ordklasstaggning och dependensparsning. Dessutom kan Sparv nu producera fler exportformat såsom XML, CSV, CoNLL och ordfrekvenslistor.

Jenny Kierkemann

Göteborgs universitet ledigförklarar intermittent anställning som projektassistent (en eller flera) med placering vid Språkbanken Text, institutionen för svenska språket. Läs mer här: 

Simon Hengchen

Yesterday, we have released word embedding models trained on our historical newspaper archive, Kubhist 2. Word embedding models represent words using vectors and place them in their semantic neighbourhood such that words that are similar are closer together. Thus they allow to easily look for semantic similarity between words as well as detect relations.