@adidasfun

ドイツでは、「ハーレンフースバル」と呼ばれる壁付のインドアサッカーが、ブンデスリーガの冬の中断期に行われている。この試合には、現役のブンデスリーガの選手やかつてのスター選手が参加している。 #フットサル #サッカー #ユニフォーム

70歳で前立腺がん発覚、治療する? しない?

日経Goodayの男性読者なら誰もが気になる「前立腺がん」。『医者がマンガで教える 日本一まっとうながん検診の受け方、使い方』の著者であり、マンガも描ける医師である近藤慎太郎さんに解説していただきました。

70歳で前立腺がん発覚、治療する? しない?

日経Goodayの男性読者なら誰もが気になる「前立腺がん」。『医者がマンガで教える 日本一まっとうながん検診の受け方、使い方』の著者であり、マンガも描ける医師である近藤慎太郎さんに解説していただきました。

骨ごと食べるサバ缶ならロコモ予防、ストレス軽減にも!

今、日本で最も多く生産されているのは、ツナ缶ではなくサバ缶だということをご存じだろうか。サバ缶人気が高まっている。理由を探ると、サバ缶は、生食以上に“いい成分”をたっぷり含む天下無双の食材だということが分かった。日経おとなのOFFムック『毎日、サバ缶』よりお届けする。

骨ごと食べるサバ缶ならロコモ予防、ストレス軽減にも!

今、日本で最も多く生産されているのは、ツナ缶ではなくサバ缶だということをご存じだろうか。サバ缶人気が高まっている。理由を探ると、サバ缶は、生食以上に“いい成分”をたっぷり含む天下無双の食材だということが分かった。日経おとなのOFFムック『毎日、サバ缶』よりお届けする。

あなたも実はドライアイ? オフィスの3人に1人発症

スマートフォン(スマホ)やパソコンを使う時間が増え、目が乾くなど不快な症状から「ドライアイかもしれない」と感じたことはないだろうか。2016年にドライアイの診断基準が改定されて以降、これまで診断が下りなかった人も、新たに治療対象となる事例が増えていることが順天堂大学の調べで分かった。ドライアイの疑いがある人も眼科を訪れれば、日ごろの目のストレスから解放されるかもしれない。

あなたも実はドライアイ? オフィスの3人に1人発症

スマートフォン(スマホ)やパソコンを使う時間が増え、目が乾くなど不快な症状から「ドライアイかもしれない」と感じたことはないだろうか。2016年にドライアイの診断基準が改定されて以降、これまで診断が下りなかった人も、新たに治療対象となる事例が増えていることが順天堂大学の調べで分かった。ドライアイの疑いがある人も眼科を訪れれば、日ごろの目のストレスから解放されるかもしれない。

運動習慣があるだけで、血糖値が下がりやすくなる!

ダイエットやメタボ対策の定番になった“緩やかな”糖質制限ロカボ。このロカボを提唱したのが糖尿病専門医の山田悟さんです。本連載では、「食べる喜びをしっかり味わいながら健康になる」ことが何よりも大事、と話す山田さんが、ロカボについて医学的根拠から説き起こし、わかりやすく伝えていきます。今回のテーマは、食事とともに重要な「運動」について。運動は肥満解消や健康維持と大きく関係していることは周知の通りですが、血糖値の面でもうれしい効果をもたらしてくれます。

運動習慣があるだけで、血糖値が下がりやすくなる!

ダイエットやメタボ対策の定番になった“緩やかな”糖質制限ロカボ。このロカボを提唱したのが糖尿病専門医の山田悟さんです。本連載では、「食べる喜びをしっかり味わいながら健康になる」ことが何よりも大事、と話す山田さんが、ロカボについて医学的根拠から説き起こし、わかりやすく伝えていきます。今回のテーマは、食事とともに重要な「運動」について。運動は肥満解消や健康維持と大きく関係していることは周知の通りですが、血糖値の面でもうれしい効果をもたらしてくれます。

@adidasfun

サッカー大国の中では唯一フットサル代表チームを持たないほど、ドイツではフットサルの普及が遅れていた。しかし2006年に、第1回ドイツフットサル選手権が開催されている。 #フットサル #サッカー #ユニフォーム

@adidasfun

サッカー大国の中では唯一フットサル代表チームを持たないほど、ドイツではフットサルの普及が遅れていた。しかし2006年に、第1回ドイツフットサル選手権が開催されている。 #フットサル #サッカー #ユニフォーム

西川ヘレンさん、壮絶な多重介護を語る 「どんなときも思いやり」 

親や配偶者など、複数の人を同時に介護する「多重介護」。お笑いタレント・西川きよしさんの妻、西川ヘレンさんはきよしさんの両親、実母と40年以上にわたって同居し、家事や仕事をしながら自宅で多重介護を経験した。2018年6月に日本精神神経学会学術総会の市民公開講座で、介護に携わった暮らしぶりを披露。介護者の思いやりある対応は、介護を受ける人の心を穏やかにすると話した。

IWA・KWA共催「越中八尾街巡り」が開催された。

180826iwa-4

IWA・KWA共催「越中八尾街巡り」が開催された。

8月26日(日)JR高山線越中八尾駅前発着にて石川県ウオーキング協会、小松ウオーキング共催「越中八尾街巡り」が120名の参加者で開催された。受付では西日本豪雨災害募金を行った。
■写真は大路石川県ウオーキング協会会長

180826iwa-1
■写真は二川小松ウオーキング協会会長

開会式では大路石川県ウオーキング協会会長、二川小松ウオーキング協会会長があいさつしくれぐれも熱中症を起こさないため適切な水分補給をお願いしますとのお話があった。IWA小松隆さんがコース説明。小松協会橋本さんの指導でストレッチを行いスタートした。

180826iwa-2

■写真はストレッチの参加者

180826iwa-3

■写真は対岸に八尾の街並を眺めながら「井田川」沿いの参加者

180826iwa-5

気温35度湿度60%の蒸し暑い日中の為、安全を期して本日のコースはショートカットウォーキングになりました。9月に本番が行われる「八尾おわら風の盆」の風情ある街並みを巡りながら12時半に八尾駅にゴールした。

■写真は八尾の町に向けて坂を上る参加者

180826iwa-7
■写真は曳山展示館前の参加者

180826iwa-8

180826iwa-9

■写真は「日本の道百選」の諏訪本道りの参加者

<コース>
越中八尾駅⇒禅寺橋⇒曳山展示館⇒ふらっと館⇒諏訪町本通り⇒城ケ山公園事務所⇒越中八尾駅(ゴール)

180826iwa-10

■写真は城ヶ山公園登り口の参加者

◇情報・写真提供:IWA大谷勝 氏

 

@adidasfun

コーナーキック。ゴールラインを割ったときに最後に触れた選手が守備側だった場合、ボールの出たところから近いコーナーアークから相手に邪魔されない形でキックすることができる。直接ゴールを狙ってもよい。 #フットサル #サッカー #ユニフォーム

石原良純 裕次郎叔父と過ごした逗子の夏の思い出

テレビ界きっての多趣味人で、博識の石原良純さん。50代で人生により磨きをかける日々の中で感じている、カラダのこと、天気のこと、そしてニッポンのこと。何事も前向きに生きれば、日々是好転! 今年の夏は暑い上に、台風の数も尋常ではありません。そのあおりを受け隅田川花火大会も1日延期に。生中継に出演した石原さんが、花火大会の舞台裏を、裕次郎叔父と過ごした逗子の花火大会の思い出と共に語ります。

石原良純 裕次郎叔父と過ごした逗子の夏の思い出

テレビ界きっての多趣味人で、博識の石原良純さん。50代で人生により磨きをかける日々の中で感じている、カラダのこと、天気のこと、そしてニッポンのこと。何事も前向きに生きれば、日々是好転! 今年の夏は暑い上に、台風の数も尋常ではありません。そのあおりを受け隅田川花火大会も1日延期に。生中継に出演した石原さんが、花火大会の舞台裏を、裕次郎叔父と過ごした逗子の花火大会の思い出と共に語ります。

「サバ缶」で脳が若返り、血管がしなやかに?

今、日本で最も多く生産されているのは、ツナ缶ではなくサバ缶だということをご存じだろうか。サバ缶人気が高まっている。理由を探ると、サバ缶は、生食以上に“いい成分”をたっぷり含む天下無双の食材だということが分かった。日経おとなのOFFムック『毎日、サバ缶』よりお届けする。

「サバ缶」で脳が若返り、血管がしなやかに?

今、日本で最も多く生産されているのは、ツナ缶ではなくサバ缶だということをご存じだろうか。サバ缶人気が高まっている。理由を探ると、サバ缶は、生食以上に“いい成分”をたっぷり含む天下無双の食材だということが分かった。日経おとなのOFFムック『毎日、サバ缶』よりお届けする。

@adidasfun

ピッチの中央部: ピッチを半分ずつに分けるハーフウェイラインを引き、その中心にセンターマーク、さらにセンターマークを中心にして半径3mの円をしるす。 #フットサル #サッカー #ユニフォーム

貴方にジャストフィットな「ニューバランス」スニーカーを発掘するヒント&コーデ集

みなさんどんなスニーカーを愛用中ですか?街中でもお店でも人気継続中のニューバランス(New Balance)はいかがでしょうか。いろんな種類番号があってよくわからない!という方もここでは人気の定番3モデル、そしてニューバランススニーカーコーデ集をあわせてご紹介していきますのでお楽しみに。スカートにもパンツスタイルにもしっくり合わせやすいので、まだお持ちでない方はぜひ注目してみてください!

@adidasfun

サッカー大国の中では唯一フットサル代表チームを持たないほど、ドイツではフットサルの普及が遅れていた。しかし2006年に、第1回ドイツフットサル選手権が開催されている。 #フットサル #サッカー #ユニフォーム

@adidasfun

スペインでは、フットサルは「フットボル・サラ」と呼ばれており、スペイン代表チームは2000年・2004年のFIFAフットサルワールドカップ、2005年のヨーロッパ選手権などで優勝した。 #フットサル #サッカー #ユニフォーム

@adidasfun

交代要員は公式試合で最大9人までとする。国際Aマッチでは最大10人まで、その他の一般的な試合では、両チームの合意のもと、10人を超えた交代要員を置くことができる。 #フットサル #サッカー #ユニフォーム

@adidasfun

スペインでは、フットサルは「フットボル・サラ」と呼ばれており、スペイン代表チームは2000年・2004年のFIFAフットサルワールドカップ、2005年のヨーロッパ選手権などで優勝した。 #フットサル #サッカー #ユニフォーム

@adidasfun

スペインでは、フットサルは「フットボル・サラ」と呼ばれており、スペイン代表チームは2000年・2004年のFIFAフットサルワールドカップ、2005年のヨーロッパ選手権などで優勝した。 #フットサル #サッカー #ユニフォーム

Bug Hunt Week

The Mobile+AI Lab community is now 392 people strong!

This move to a more open and transparent process has been extremely rewarding: we are collecting great ideas and getting instant feedback on some of the bolder changes we are exploring. (See the detailed changelog below.)

We are also getting a lot of great bug reports. Thank you!

Our focus over the past 10 days was to address those bugs and polish the new experience (including scrolling, navigation, views, mark-as-read options, and night mode) so that we have a solid foundation to invite more people to the Lab and explore new ideas.

Three questions for the community:

Question 1: We did some night mode color tuning. Better? If not, can you please let us know 1/ if there is a specific part of the theme we need to refine, and 2/ what is your luminosity level?

Question 2: Are there other bugs you would like us to fix? Please post them in the “bugs” channel in Slack.

Question 3: Is there a missing feature which is not currently in the Trello roadmap that is preventing you from adopting the new app? Please post it in the “general” channel.

We love building the new Feedly in the open and look forward to the next 12 weeks!

Here is a more detailed changelog for this week’s bug hunt:

  • Scroll and tap to open conflict (via Jesse Flanagan, John, and Kireet)
  • Empty screen when loading an article after switching app (via Ryan)
  • Improve scrolling performance (via Chad Hudson and Cyril)
  • Double tap on selected bottom tab bar should scroll to the top (via Lior)
  • Contextual mark as read copy improvement (mark all as read versus mark current top articles as read)
  • Mark as read missing items (via Dan Newman)
  • Mark as read and refresh of the All section (via Eric L.)
  • Move to next feed and gray out articles after Mark all as read (via Serge Courrier)
  • Night mode: Improve the brightness/contrast of the mark-as-read notification (via Dan Newman)
  • Night mode: Better read vs unread distinction (via Lee Sprung)
  • Night mode: Article separators (via Daniel)
  • Read later tab is not selected (via Lior)
  • Toggle read later bug (via Lior)
  • Do not automatically mark-as-read articles that the user manually kept unread (via Gabe)
  • Auto-mark-as-read-on-scroll: improvements regarding marking-as-read the last articles on the page
  • Refresh automatically when the user launches the app after minutes (via sryo)
  • Speed up the close animation (Aaron M.)
  • Make compact view even more compact by inlining the source and date metadata
  • Mark-all-as-read button at the end of a list of articles
  • Second level left-to-right gesture to trigger the save to board action (via Eiselch)
  • Progress circle needs to be reset after changing sort or layout preference (via John)

Thank you for your time and participation.

If you aren’t yet part of the Lab and you would like to participate, you can join here.

毎日カジュアル派さんに朗報!スニーカーに似合う、大人の夏色ワンピース特集

夏も終盤!今年は特に暑かったので、風になびく涼しいワンピースが大活躍でしたよね。そんな優秀ワンピースにたくさん歩き回れるスニーカーを合わせた鉄板・楽ちん可愛いコーデで、涼しく快適に残暑を乗り切りましょう!今回はブランドごとにおすすめのワンピースと着まわしコーデ、ワンピースにぴったりの定番スニーカーを合わせてご紹介します。

@adidasfun

スペインでは、フットサルは「フットボル・サラ」と呼ばれており、スペイン代表チームは2000年・2004年のFIFAフットサルワールドカップ、2005年のヨーロッパ選手権などで優勝した。 #フットサル #サッカー #ユニフォーム

@adidasfun

選手と応援団との間にある一体感を一層高めようと思ったら、選手が発注しているショップに依頼して自分のサイズにピッタリ合った商品を製作してもらうことだ。 #フットサル #サッカー #ユニフォーム

@adidasfun

ゴールクリアランス。ゴールラインを割ったときに最後に触れた選手が攻撃側だった場合、守備側のゴールキーパーがペナルティエリアの任意の地点からボールを投げる。直接ゴールに入れても得点とはならない。 #フットサル #サッカー #ユニフォーム

Transfer Learning in NLP

In our previous post we showed how we could use CNNs with transfer learning to build a classifier for our own pictures. Today, we present a recent trend of transfer learning in NLP  and try it on a classification task, with a dataset of amazon reviews to be classified as either positive or negative. Have a look at the notebook to reproduce the experiment on your own data!

The ideas of transfer learning in NLP are very well presented in the fast.ai course and we encourage you to have a look at the forum. Our reference paper here is Howard, Ruder, “Universal Language Model Fine-tuning for Text Classification”.

So what is Transfer Learning?

Computer Vision is a field which has seen tremendous improvements because of transfer learning. Highly non-linear models with millions of parameters required massive datasets to train on, and often took days or weeks to train, just to be able to classify an image as containing a dog or a cat!

 

With the ImageNet challenge, teams competed each year to design the best image classifiers. It has been observed that the hidden layers of such models are able to catch general knowledge in images (edges, certain forms, style…). Hence, it was not necessary to re-train from a scratch a model each time we wanted to change task.

Let’s take the example of the VGG-16 model (Simonyan, Karen, and Zisserman. “Very deep convolutional networks for large-scale image recognition.” (2014))

 

This architecture is relatively complex, there are many layers and the number of parameters is large. The authors claim a training time of 3 weeks using 4 powerful GPUs.

The idea of transfer learning is that, since the intermediary layers are thought to learn general knowledge about images, we could use them as one big featurizer! We would download a pre-trained model (trained for weeks on the ImageNet task), remove the last layer of the network (the fully-connected layer, which project the features on the 1000 classes of the ImageNet challenge), add put instead the classifier of our choice, adapted to our task (a binary classifier if we are interested in classifying cats and dogs) and finally train our classification layer only. And because the data we use may be different than the data the model has been previously trained on, we can also do a fine-tuning step, where we train all layers for a reasonably short amount of time.

In addition to being quicker to train, transfer learning is particularly interesting since training only on the last layer enables us to use fewer labeled data, compared to the huge dataset required to train the full model end-to-end. Labeling data is expensive and building high quality models without requiring large data sets is very much appreciated.

And what about Transfer Learning in NLP?

Advances in deep learning for NLP are less mature than they are in Computer Vision. While it is quite conceivable that a machine is able to learn what edges, circles, squares, etc. are and then use this knowledge to do other things, the parallel is not straightforward with text data.

The initial popular attempt to transfer learning in NLP was brought by the word embedding models (widely popularized by word2vec and GloVe).

These word vector representations take advantage of the contexts in which words live, to represent them as vectors, where similar words should have similar word representations.

In this figure from the word2vec paper (Mikolov, Sutskever, Chen, Corrado, Dean. “Distributed Representations of Words and Phrases and their Compositionality” (2013)) we see that the model is able to learn the relation between countries and their capital cities.

Including pre-trained word vectors has shown to improve metrics in most NLP tasks, and thus has been widely adopted by the NLP community, which has continued to look for even better word/character/document representations. As in computer vision, pre-trained word vectors can be seen as a featurizer function, transforming each word in a set of features.

However, word embeddings represent only the first layer of most NLP models. After that, we still need to train from scratch all the RNNs/CNNs/custom layers.

Language Model Fine Tuning for Text classification

The ULMFit model was proposed by Howard and Ruder earlier this year as a way to go a step further in transfer learning for NLP.

The idea they are exploring is based on Language Models. A Language Model is a model which is able to predict the next word, based on the words already seen (think of your smartphone guessing the next words for you while you text). Just like an image classifier has gained intrinsic knowledge about images by classifying tons of them, if an NLP model is able to predict accurately the next word, it seems reasonable to say that it has learned a lot about how natural language is structured. This knowledge should provide a good initialization to then be trained on a custom task!

The ULMFit proposes to train a language model on a very large corpus of text (a wikipedia dump for example) and use it as a backbone for any classifier! Because your text data might be different than the way wikipedia is written, you would fine-tune the parameters of the language model to take these differences into account. Then, we would add a classifier layer on top of this language model, and train this layer only! The paper suggests to gradually unfreeze layers and hence to gradually train every layers. They also build upon previous work on learning rates (cyclical learning rates) and create their slanted triangular learning rates.

Take away from the ULMfit paper

The amazing practical result from this paper is that using such a pre-trained language model enables us to train a classifier on much less labeled data! While unlabeled data is almost infinite on the web, labeled data is very expensive and time-consuming to get.

Here are results they report from the IMDb sentiment analysis task:

With only 100 examples they are able to reach the same error rate that the model reaches when trained from scratch on 20k examples!!

Moreover, they provide code to pre-train a language model in the language of your choice. Because Wikipedia exists in so many languages, this enables us to quickly move from a language to another using Wikipedia data. Public labeled datasets are known to be more difficult to access in languages others than English. Here, you could fine-tune the language model on your unlabeled data, spend a few hours to manually annotate a few hundreds/thousand data points, and adapt a classifier head to your pre-trained language model to perform your task!

 

Playground with Amazon Reviews

To deepen our undestanding of this approach we tried it on a public dataset not reported on their paper. We found this dataset on Kaggle. It contains 4 millions reviews of products on Amazon and tags them with a sentiment, either positive or negative. We adapt the fast.ai course on ULMfit to the task of classifying Amazon reviews as positive or negative. We find that with only 1000 examples the model is able to match the accuracy score obtained by training a FastText model from scratch on the full dataset, as reported on the Kaggle project home page. With 100 labeled examples only, the model is still able to get a good performance.

 

 

To reproduce this experiment you can use this notebook. Having a GPU is encouraged to run the fine-tuning and classification parts.

Unsupervised vs supervised learning in NLP, discussion around meaning

Using ULMFit, we have used both unsupervised and supervised learning. Training an unsupervised language model is “cheap” since you have access to almost unlimited text data online. However, using a supervised model is expensive because you need to get it labeled.

While the language model is able to capture a lot of relevant information from how a natural language is structured, it is not clear whether it is able to capture the meaning of the text, which is “the information or concepts that a sender intends to convey, or does convey, in communication with a receiver”.

You might have followed the very interesting Twitter thread on meaning in NLP (If not, take a look at this summary from the Hugging Face team). In this thread, Emily Bender makes her argument against meaning capture with the “Thai room experiment”:  “Imagine [you] were given the sum total of all Thai literature in a huge library. (All in Thai, no translations.) Assuming you don’t already know Thai, you won’t learn it from that.”

So we could think that what a language model learns is more about syntax than meaning. However, language models are better than just predicting syntactically relevant sentences. For example, the sentences “I ate this computer” and “I hate this computer” both are syntactically correct, but a good language model should be able to know that “I hate this computer” should be “more correct” than the hungry alternative. So, while I would not be able to write in Thai even if I had seen the whole Thai Wikipedia, it’s easy to see the language model does go beyond simple syntax/structure comprehension. So we could think of language models as learning quite a lot about the structure of natural language sentences, helping us in our quest of understanding meaning.

We won’t go further in the notion of meaning here (this is an endless and fascinating topic/debate), if you are interested we recommend Yejin Choi’s talk at ACL 2018 to dig further in the subject.

Future of transfer learning in NLP

The progress obtained by ULMFit has boosted research in transfer learning for NLP. This is an exciting time for NLP, as other fine-tuned language models also start to emerge, notably the FineTune Transformer LM. We note also that with the emergence of better language models, we will be able to even improve this transfer of knowledge. The flair NLP framework is quite promising in addressing transfer learning from a language model trained at the character level, which make it very relevant for languages with sub-word structure like German.

@adidasfun

ブラジルでは、「サロンフットボール」と呼ばれていた時代より、サッカー以上に身近なスポーツとして普及していた。そのためフットサルへのルール変更も、比較的スムーズに行われた。 #フットサル #サッカー #ユニフォーム

Happy #BookLoversDay!

Books have the power to inspire, connect, and educate. Today in honor of Book Lovers Day, here are some of the books that have inspired the Feedly team as lifelong learners.

What’s on your must-read list right now? What recent read inspired you to see the world in a new way? Tweet at us, or comment below. We always respond.

Ultramarathon Man: Confessions of an All-Night Runner by Dean Karnazes

Petr says, “I liked the story and how passionate one can be about running and endurance and pursuing dreams. It inspired me to run longer distances.”

Grandma Gatewood’s Walk by Ben Montgomery

Emily says, “I felt a connection to this 67-year-old woman who lived and worked on farms all her life before deciding she needed to hike the 2,050-mile Appalachian Trail. The suffering she happily endured on the trail must have been a welcome relief from the darkness of her past.”

Evicted by Matthew Desmond

Victoria says, “This is one of my faves because of the empathy and understanding it creates within you as you experience the loss of eviction through the eyes of the evicted. It’s a powerful piece on how to better take care of your neighbors.”

The Story of a Shipwrecked Sailor by Gabriel García Márquez

Eduardo says “It’s easily one of my favorite books. The struggle of the guy who was adrift at sea … he never lost hope. You could almost feel what he was feeling. That’s the vividness of the writing.”

Barbarian Days by William Finnegan

Remi says“Finnegan has a way of pulling his reader into what a life of pursuing their obsession and journeying all over the world really feels like. Bonus points for the years in South Africa which bring it back to a moment in history … beautifully written, permeating passion all the way through.

Les Fleurs Du Mal (The Flowers of Evil) by Charles Baudelaire

Guillaume says, It has the best reread value of any book I know. Every piece is incredibly beautiful and well written, and the whole volume oozes a sort of calm melancholy that always gets me.

Le Mythe de Sisyphe (The Myth of Sisyphus) by Albert Camus

David says, “This was one of the most pivotal books in my life.”

Thanks for reading!

Here are some of our most-loved books. What are yours?

@adidasfun

アメリカはアイスホッケーのリンクに人工芝を敷いたインドアサッカー場が全米の至る所に普及しており、「MISL (Major Indoor Soccer League) 」というプロリーグも存在する。 #フットサル #サッカー #ユニフォーム

@adidasfun

ピッチの中央部: ピッチを半分ずつに分けるハーフウェイラインを引き、その中心にセンターマーク、さらにセンターマークを中心にして半径3mの円をしるす。 #フットサル #サッカー #ユニフォーム