数学がわからない

日々の勉強をアウトプットする。

一様分布と正規分布

一様分布と正規分布を画像とそのヒストグラムで表します。 pythonのコードは以下の通り。 %matplotlib inline import matplotlib.pyplot as plt import numpy as np # 一様分布 im = np.random.rand(32,32) plt.gray() plt.subplot(2,2,1) plt.imshow(im) pl…

matplotlibのマジックコマンド:"inline"と"notebook"

jupyterでmatplotlibを使う際、憶えておくべきマジックコマンドは次の二つ。 %matplotlib inline %matplotlib notebook inline %matplotlib inline import matplotlib.pyplot as plt import numpy as np im = np.random.randn(10,10) plt.gray() plt.imshow(…

Noise2Noiseを理解する(2)

論文"Noise2Noise: Learning Image Restoration without Clean Data"を読みます。前回、"1. Introduction"を読みました。 gyokan.hatenablog.com今回は"2. Theoretical Background"です。ちょっと長くなったので目次を載せます。 "2. Theoretical Background…

論文"Objects as Points"を読む(6)

gyokan.hatenablog.comの続きです。 5. Implementation details 4つのアーキテクチャ(ResNet-18、 ResNet101 [55]、 DLA-34 [58]、 and Hourglass-104 [30])で実験します。 ResNetsとDLA-34に関しては、「変形可能な畳み込み層[12]」を用いて修正し、Hourg…

最尤推定とは

最尤推定(さいゆうすい)が未だに理解できていないので調べます。 最尤推定 Wikipedia(2019/06/23)から引用すると、 最尤推定(さいゆうすいてい、英: maximum likelihood estimation、略してMLEともいう)や最尤法(さいゆうほう、英: method of maximum…

点推定とは

論文を読んでいて、「点推定(point estimation)」という言葉が出てきたが、恥ずかしながら分からなかったので調べてみました。 点推定の定義 Wikipedia(2019/6/22現在)には、こう記載されています。 点推定(てんすいてい、英: point estimation)とは、…

論文"Objects as Points"を読む(5)

gyokan.hatenablog.com の続きです。 From points to bounding boxes (ポイントからバウンディングボックスまで) 推論時は、最初にヒートマップの各カテゴリのピークを個別に抽出します。我々は値が8連結近傍以上であるすべての応答を検出し、上位100のピ…

論文"Objects as Points"を読む(4)

gyokan.hatenablog.com の続きです。 "4. Objects as Points" 【バウンディングボックスとキーポイントの関係】 を、カテゴリを有するオブジェクトkのバウンディングボックスとしましょう。その中心点はです。我々はキーポイント推定量を使ってすべての中心…

論文"Objects as Points"を読む(3)

gyokan.hatenablog.comの続きです。 "3. Preliminary" を読む 入出力とネットワーク を、幅W、高さHの入力画像とする。 我々の目的は、キーポイントヒートマップ(ここでRは出力ストライド、Cはキーポイントタイプの数)を生成することです。 キーポイントタ…

論文"Objects as Points"を読む②

gyokan.hatenablog.comの続きです。"2. Related work "を読む 関連研究がたくさん出てきます。 Object detection by region classification. (領域分類による物体検出) 最初に成功したディープオブジェクトディテクタの1つであるRCNN [19]は、多数の領域候…

論文"Objects as Points"を読む①

Abstract を読む 【背景】 検出(Detection)は、オブジェクトを画像内の、軸に沿ったボックス(axis-aligned boxes)として識別します。最も成功している物体検出器は、潜在的な物体位置のほぼ網羅的なリストを列挙し、それぞれを分類します。これは無駄で…

論文を読む"Distilling the knowledge in a neural network."⑯

背景 「蒸留(Distillation)」に関して、論文"Ravi Teja Mullapudi, Online Model Distillation for Efficient Video Inference."を読んだ。 その中で引用されていたモデル蒸留のために広く使用されている技術の論文として、次の論文を読み進めている。[18]…

論文を読む"Distilling the knowledge in a neural network."⑮

背景 「蒸留(Distillation)」に関して、論文"Ravi Teja Mullapudi, Online Model Distillation for Efficient Video Inference."を読んだ。 その中で引用されていたモデル蒸留のために広く使用されている技術の論文として、次の論文を読み進めている。[18]…

論文を読む"Distilling the knowledge in a neural network."⑭

背景 「蒸留(Distillation)」に関して、論文"Ravi Teja Mullapudi, Online Model Distillation for Efficient Video Inference."を読んだ。 その中で引用されていたモデル蒸留のために広く使用されている技術の論文として、次の論文を読み進めている。[18]…

論文を読む"Distilling the knowledge in a neural network."⑬

背景 「蒸留(Distillation)」に関して、論文"Ravi Teja Mullapudi, Online Model Distillation for Efficient Video Inference."を読んだ。 その中で引用されていたモデル蒸留のために広く使用されている技術の論文として、次の論文を読み進めている。[18]…

Noise2Noiseを理解する①

論文"Noise2Noise: Learning Image Restoration without Clean Data"を読みます。 "Abstract"を読む 我々は、機械学習による信号の再構築 - 破損した観測値をクリーンな信号にマッピングする学習 -に、基本的な統計的推論を、単純で強力な結論を用いて適用し…

論文 "Fast bilateral-space stereo for synthetic defocus" ④

論文"Fast bilateral-space stereo for synthetic defocus. "を読む。 背景 低品質のセグメンテーション結果から高品質のセグメンテーション結果を生成するバイラテラルソルバーについて調査中、実際にプログラミングするため引用文献から本論文にたどり着い…

論文を読む"Distilling the knowledge in a neural network."⑫

背景 「蒸留(Distillation)」に関して、論文"Ravi Teja Mullapudi, Online Model Distillation for Efficient Video Inference."を読んだ。 その中で引用されていたモデル蒸留のために広く使用されている技術の論文として、次の論文を読み進めている。[18]…

論文を読む"Distilling the knowledge in a neural network."⑪

背景 「蒸留(Distillation)」に関して、論文"Ravi Teja Mullapudi, Online Model Distillation for Efficient Video Inference."を読んだ。 その中で引用されていたモデル蒸留のために広く使用されている技術の論文として、次の論文を読み進めている。[18]…

論文を読む"Distilling the knowledge in a neural network."⑩

背景 「蒸留(Distillation)」に関して、論文"Ravi Teja Mullapudi, Online Model Distillation for Efficient Video Inference."を読んだ。 その中で引用されていたモデル蒸留のために広く使用されている技術の論文として、次の論文を読み進めている。[18]…

3次元空間における平面について

平面の式 import math import numpy as np # 3次元空間における平面と直線の交点 # 3次元空間における平面を、Ax+By+Cz+D=0とする。 # 3次元空間における直線を、x/a=y/b=z/cとする。 # 平面の中心 X = 100*math.sqrt(3) Y = 100 Z = 100 # 原点からの距離 L…

極座標で与えた4本の直線から四角形を作る

pythonで書く。 def Line2Vertex(r,t): # 入力はたとえば次のような4本の直線 # r = [1,1,1,1]; # 原点からの距離 # t = [10,100,190,280]; # 角度θ r = np.array(r) t = np.array(t) # COS c = (np.cos(np.deg2rad(t))) c[np.abs(c)<0.0001]=0 # SIN s = (n…

論文を読む"Distilling the knowledge in a neural network."⑨

背景 「蒸留(Distillation)」に関して、論文"Ravi Teja Mullapudi, Online Model Distillation for Efficient Video Inference."を読んだ。 その中で引用されていたモデル蒸留のために広く使用されている技術の論文として、次の論文を読み進めている。[18]…

論文を読む"Distilling the knowledge in a neural network."⑧

背景 「蒸留(Distillation)」に関して、論文"Ravi Teja Mullapudi, Online Model Distillation for Efficient Video Inference."を読んだ。 その中で引用されていたモデル蒸留のために広く使用されている技術の論文として、次の論文を読み進めている。[18]…

論文を読む"Distilling the knowledge in a neural network."⑦

背景 「蒸留(Distillation)」に関して、論文"Ravi Teja Mullapudi, Online Model Distillation for Efficient Video Inference."を読んだ。その中で引用されていたモデル蒸留のために広く使用されている技術の論文として、次の論文を読み進めている。[18] …

論文を読む"Distilling the knowledge in a neural network."⑥

背景 「蒸留(Distillation)」に関して、論文"Ravi Teja Mullapudi, Online Model Distillation for Efficient Video Inference."を読んだ。その中で引用されていたモデル蒸留のために広く使用されている技術の論文として、次の論文を読むことにする。[18] …

論文を読む"Distilling the knowledge in a neural network."⑤

背景 「蒸留(Distillation)」に関して、論文"Ravi Teja Mullapudi, Online Model Distillation for Efficient Video Inference."を読んだ。その中で引用されていたモデル蒸留のために広く使用されている技術の論文として、次の論文を読むことにする。[18] …

論文を読む"Distilling the knowledge in a neural network."④

背景 「蒸留(Distillation)」に関して、論文"Ravi Teja Mullapudi, Online Model Distillation for Efficient Video Inference."を読んだ。その中で引用されていたモデル蒸留のために広く使用されている技術の論文として、次の論文を読むことにする。[18] …

論文を読む"Distilling the knowledge in a neural network."③

背景 「蒸留(Distillation)」に関して、論文"Ravi Teja Mullapudi, Online Model Distillation for Efficient Video Inference."を読んだ。その中で引用されていたモデル蒸留のために広く使用されている技術の論文として、次の論文を読むことにする。[18] …

論文を読む"Distilling the knowledge in a neural network."②

背景 「蒸留(Distillation)」に関して、論文"Ravi Teja Mullapudi, Online Model Distillation for Efficient Video Inference."を読んだ。その中で引用されていたモデル蒸留のために広く使用されている技術の論文として、次の論文を読むことにする。[18] …