私の備忘録がないわね...私の...

画像処理とかプログラミングのお話。

Adversarial Examples

AutoAttack[日本語まとめ]

基本情報 Abstract (概要) Introduction (導入) Adversarial examples and PGD (敵対的画像とPGD) Auto-PGD: A budget-aware step size-free variant of PGD (Auto-PGD: step size を選ぶ必要がない PGD の変種) Gradient step (勾配計算による敵対的画像の…

Hierarchical Adversarial Robustness

Improving Hierarchical Adversarial Robustness of Deep Neural Networks [Ma+, arXiv20] Huawei Intern で書かれた論文. 2021/2/17 [arXiv] 簡単のため, 以下のような略語を使用する. AE: Adversarial Examples AA: Adversarial Attack clean: AAを受けて…

Adversarial Training 周りの話まとめ

簡単のため, 以下のような略語を使用する. AE: Adversarial Examples AA: Adversarial Attack clean: AAを受けていない自然画像 AT: Adversarial Training AR: Adversarial Robustness BN: Batch Normalization EXPLAINING AND HARNESSING ADVERSARIAL EXAMP…

IEEE Symposium on Security & Privacy16~20のadversarial examples関連論文リンク集

目視で判断したので、間違っていたり抜けてたりするかもしれませんが、ご容赦ください。 20 19 18 17 16 20 Humpty Dumpty: Controlling Word Meanings via Corpus Poisoning* [1911.02142] Intriguing Properties of Adversarial ML Attacks in the Problem…

AAAI16~20のadversarial examples関連論文リンク集

目視で判断したので、間違っていたり抜けてたりするかもしれませんが、ご容赦ください。 20 19 18 17 16 20 A New Ensemble Adversarial Attack Powered by Long-Term Gradient Memories | Proceedings of the AAAI Conference on Artificial Intelligence E…

ICML18~20のadversarial examples関連論文リンク集

目視で判断したので、間違っていたり抜けてたりするかもしれませんが、ご容赦ください。 20 19 18 20 [1909.13806] Min-Max Optimization without Gradients: Convergence and Applications to Adversarial ML [2004.13617] Adversarial Learning Guarantees…

NeurIPS16~19のadversarial examples関連論文リンク集

目視で判断したので、間違っていたり抜けてたりするかもしれませんが、ご容赦ください。 19 18 17 16 19 [1910.07629] A New Defense Against Adversarial Images: Turning a Weakness into a Strength Adversarial Examples are not Bugs, they are Feature…

ECCV18, 20のadversarial examples関連論文リンク集

目視で判断したので、間違っていたり抜けてたりするかもしれませんが、ご容赦ください。 20 18 20 Model-Agnostic Boundary-Adversarial Sampling for Test-Time Generalization in Few-Shot learning Regularization with Latent Space Virtual Adversarial…

ICCV17, 19のadversarial examples関連論文リンク集

目視で判断したので、間違っていたり抜けてたりするかもしれませんが、ご容赦ください。 19 17 19 Adversarial Robustness vs. Model Compression, or Both? On the Design of Black-Box Adversarial Examples by Leveraging Gradient-Free Optimization and…

Adversarial Examples論文リンク集

CVPR kamakuraviel.hatenablog.com ICLR kamakuraviel.hatenablog.com ICML kamakuraviel.hatenablog.com NeurIPS kamakuraviel.hatenablog.com ICCV kamakuraviel.hatenablog.com ECCV kamakuraviel.hatenablog.com AAAI kamakuraviel.hatenablog.com IEEE …

ICLR14~21のadversarial examples関連論文リンク集

目視で判断したので、間違っていたり抜けてたりするかもしれませんが、ご容赦ください。 21 20 19 18 17 16 15 14 21 Geometry-aware Instance-reweighted Adversarial Training | OpenReview Improving Adversarial Robustness via Channel-wise Activation…

CVPR15~22のadversarial examples関連論文リンク集

目視で判断したので、間違っていたり抜けてたりするかもしれませんが、ご容赦ください。 22 21 20 19 18 17 16 15 22 Improving Adversarially Robust Few-shot Image Classification with Generalizable Representations Bounded Adversarial Attack on Dee…

訳の分からない画像にDNNが高い確信度を出す理由

CVPR2020の論文である Why ReLU networks yield high-confidence predictions far away from the training data and how to mitigate the problem のまとめです。 概要 前提 なぜReLU DNNはトレーニングデータから離れた画像に高い確信度を生成するのか? こ…

DNNは簡単に騙せる

Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Imagesのまとめです。 概要 手法 DNN models 進化アルゴリズムによる画像の生成 Direct Encoding CPPN Encoding CPPNについての補足 結果 Direct Encoding x MNIST…

CNNの出力を逆変換し画像を得る

主にこの論文([1412.0035] Understanding Deep Image Representations by Inverting Them)のまとめです。 概要 手法 正則化項について詳しく optimisation network テストイメージ 実験結果 参考文献 概要 CNNの出力を逆変換することで入力画像を再構成しま…

AEのtransferabilityについて

この論文([1611.02770] Delving into Transferable Adversarial Examples and Black-box Attacks)のまとめ 概要とイントロ 新規性とかやったこと 結果 既存研究との関連 環境 攻撃の種類 モデル データセット transferabilityの評価基準 AEsの評価基準 non-t…

one pixel attack

2017年10月に発表された論文 One Pixel Attack for Fooling Deep Neural Networksで提案されたone pixel attackというAdversarial Examples(AEs)生成手法と論文の結果の紹介です。 one pixel attackは以下の画像のように一個のピクセルを変化させるだけでモ…

PGDとAdversarial Examples

2019年の論文で紹介されたPGD(Projected Gradient Descent)を用いたAEs(Adversarial Examples)生成手法を紹介します。 サーベイ論文や解説系のウェブサイトではあたかもPGDをAEsの生成手法のように記述してますが、正確にはPGDは最適化手法であり、SGDの仲間…

FGSMでロジスティック回帰を騙す

Adversarial Examplesを少し調べたことのある人なら親の顔より見たことがあるであろうこの画像 親の顔より見た画像 このAdversarial Examples生成手法はFGSM(Fast Gradient Sign Method)といい、最も基本的なAttackの一つです。 細かい説明は他記事に譲ると…