@Blog
日常日誌からプログラムやYOUTUBER紹介、旅日記まで日々更新中です。

AIで今後どうなるだろうな.自然言語処理で指示出し出来てきた今日.
2025.07.01
おはようございます.何だか梅雨明けした休日にGeminiCliでコードを生成しています.仕事ではまだ自分はChatに分からない事を質問するぐらいの事しかしていないのだけども絶対にCliなどで作業すると時間短縮になるのは間違いです(仕事でも導入しているのですが自分は使用していない).
休日に作業するときはコパイロットとGeminiを使用して開発しているのです、どちらも無料版なのだけど自分は無料板で事足りています.
因みにコパイロットとGemini、どちらが優秀かという問いに関しては今のところコパイロットの方が優秀なソースコードを書いてくれるというイメージが強いです.有料版ではカーソルやデビィンなどが優秀らしいけども余裕資金があんま無いので試していない.
お金に余裕があればいろいろと試したいことはあります.例えばグラボ(グラフィックボード)を取り替えて機械学習の学習をローカルで試してみたいなどがあります.
この頃思うのだけど、何かとこの業界は移り変わりが激しいのと新しい技術を学ぶときにたまに技術投資が必要になります.昔はオープンソース的な感じだったけどこのIT業界ビックテックはお金を取り出して来ています.
その中でMETA社?だけがオープンソースでいろいろと提供してくれていてとても有り難いです.それでもやっぱそれを動かす端末の推奨環境という物があるので古いPCだと動かなかったりします.
今後、Llm(大規模言語モデル)は容量が小さくなっていくということとローカル端末で動かすのが当たり前になる時代が来るそうです.
明日へ続く
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
あんま, イメージ, オープン, お金, カーソル, グラフィック, グラボ, コード, こと, コパイロット, ソース, そう, それ, たま, デビィン, とき, ところ, どちら, ビックテック, ボード, みたい, モデル, ローカル, 今後, 仕事, 休日, 余裕, 作業, 使用, 優秀, 問い, 学習, 容量, 導入, 当たり前, 必要, 感じ, 技術, 投資, 推奨, 提供, 明け, 明日, 時代, 時間, 有料, 梅雨, 業界, 機械, 無料, 環境, 生成, 短縮, 移り変わり, 端末, 絶対, 自分, 規模, 言語, 資金, 質問, 開発, 間違い,

AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでも.
2025.06.22
おはようございます.AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでもなくローカルPCでそこら辺に落ちているLlamaモデルを持ってきてチューニングすれば何とかなるじゃねぇという思いに至った.
実はあなたの手元にあるPCと、そこら中に「落ちている」オープンソースのAIモデル、特にLlama 3があれば、十分記事が生成できるんです。
ローカルAI記事生成は、もはや夢物語じゃない
「AIで記事生成」と聞くと、SFのような世界や、大企業だけが使える特権のように感じるかもしれません。しかし、今は違います。オープンソースの強力な言語モデル、特にMetaが公開したLlama 3の登場は、この常識を大きく覆しました。
Llama 3は、その性能の高さにもかかわらず、誰でも無料で利用できるという点が最大の魅力です。さらに、80億パラメータの8Bモデルであれば、最新のゲーミングPCとまではいかなくとも、ある程度の性能を持つPCであれば十分に動作します。これにより、高額なクラウドサービスを利用せずとも、自分のPCでAI記事生成の環境を構築することが現実的になりました。
なぜLlama 3があなたのPCと相性抜群なのか?
Llama 3がローカルPCでの記事生成に適している理由はいくつかあります。
- 完全無料のオープンソース: 利用に費用がかからないため、予算を気にせずAIを試したり、本格的に導入したりできます。
- 選べるモデルサイズ: Llama 3には様々なサイズのモデルがあり、PCのスペックに合わせて選べます。特に8Bモデルは、個人利用に最適なバランスを持っています。
- 活発な開発者コミュニティ: 世界中の開発者がLlama 3を使った新しいツールや効率的なチューニング方法を日々共有しています。困ったときには助けを借りられる心強い味方です。
- 「量子化」でさらに軽量に: モデルのサイズを大幅に小さくする「量子化」という技術を使えば、より少ないメモリでLlama 3を動かせるようになります。これにより、より多くのPCで利用の道が開けます。
あなたのPCを「記事生成マシン」に変える秘訣
もちろん、いきなりプロのライター並みの記事をAIに書かせるのは難しいかもしれません。しかし、ちょっとした工夫で「何とかなる」レベルの記事生成は十分に可能です。
- 少量のデータでファインチューニング: 大量の記事データは不要です。あなたが書きたい記事のテーマやスタイルに合った、質の良い記事を数十〜数百程度集めてLlama 3を学習(ファインチューニング)させれば、その分野に特化した記事生成能力が格段に向上します。
- プロンプト(指示文)の工夫: AIへの「指示の出し方」は非常に重要です。具体的で明確なプロンプトを与えることで、チューニングが完璧でなくても、驚くほど質の高い記事が生成できます。これはまるで、優秀なアシスタントに的確な指示を出すようなものです。
- 効率的な学習方法の活用: 「LoRA(Low-Rank Adaptation)」のような効率的なファインチューニング手法を使えば、少ないGPUメモリでも短時間でモデルを特定のタスクに最適化できます。
あなたの創造性が、今、AIで加速する
かつては一部の専門家や企業にしか手の届かなかったAIによる記事生成が、今やあなたのPCで実現できる時代になりました。これはまさにAI技術の「民主化」です。
とまぁそういう訳なので何とかしてみますが、ファインチューニングにどれぐらい時間がかかるのかが未知数だったりする.
ファインチューニングPythonコード
以下のPythonコードは、Llama 3モデルをロードし、提供されたテキスト記事でファインチューニング(LoRA使用)を実行し、結果を保存します。 上記の入力値は、このコードに自動的に反映されます。 このコードをPythonファイル(例: `finetune_llama.py`)として保存し、実行してください。
import os
import torch
from datasets import load_dataset
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig, TrainingArguments, Trainer
from peft import LoraConfig, get_peft_model, prepare_model_for_kbit_training, TaskType
# GPUの利用可能性を確認
print("GPUが利用可能か確認中...")
if not torch.cuda.is_available():
print("GPUが見つかりません。Fine-tuningにはGPUが強く推奨されます。")
# GPUがない場合は、ここでスクリプトを終了するか、CPUモードで続行するか選択できます。
# exit("GPUがないため終了します。")
else:
print(f"GPUが利用可能です: {torch.cuda.get_device_name(0)}")
# --- 1. モデルとトークナイザーのロード ---
# Llama 3モデルのパスを指定します。Hugging Faceのモデル名(例: "meta-llama/Llama-3-8B")
# またはローカルにダウンロードしたモデルのパスを指定してください。
MODEL_NAME = "meta-llama/Llama-3-8B" # ユーザーが入力したパスがここに挿入されます
print(f"モデルとトークナイザーをロード中: {MODEL_NAME}")
# 4bit量子化設定 (GPUメモリの節約に役立ちます)
# bnb_4bit_compute_dtypeは、Ampere以降のNVIDIA GPUに推奨されるbfloat16を使用しています。
bnb_config = BitsAndBytesConfig(
load_in_4bit=True,
bnb_4bit_use_double_quant=True,
bnb_4bit_quant_type="nf4", # NF4 (NormalFloat4) 量子化タイプ
bnb_4bit_compute_dtype=torch.bfloat16
)
# トークナイザーをロード
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME, trust_remote_code=True)
# Llama 3はデフォルトでbos_tokenを付与しないことがあるため、明示的に追加。
# また、padding_side='right'はLlamaモデルに推奨される設定です。
tokenizer.pad_token = tokenizer.eos_token
tokenizer.padding_side = "right"
# モデルをロードし、量子化設定を適用し、自動的にGPUにマッピングします。
model = AutoModelForCausalLM.from_pretrained(
MODEL_NAME,
quantization_config=bnb_config,
device_map="auto", # 利用可能なデバイス(GPU)に自動的にモデルを分散
trust_remote_code=True # リモートコードの実行を許可
)
print("モデルロード完了。")
# k-bit学習用にモデルを準備 (PEFTライブラリのため)
# gradient_checkpointingを有効にすることで、メモリ使用量をさらに削減できます。
model.gradient_checkpointing_enable()
model = prepare_model_for_kbit_training(model)
print("k-bit学習用にモデルを準備しました。")
# --- 2. データセットの準備 ---
# あなたのテキスト記事ファイルが格納されているディレクトリを指定します。
# 例: 'your_article_data/' の中に 'article1.txt', 'article2.txt', ... と置かれている場合
DATA_DIR = "./your_article_data/" # ユーザーが入力したパスがここに挿入されます
print(f"データセットをロード中: {DATA_DIR}")
# 'text'形式でデータセットをロードします。指定されたディレクトリ内のすべての.txtファイルを読み込みます。
# 各ファイルが1つのエントリとして扱われます。
try:
dataset = load_dataset('text', data_files={'train': os.path.join(DATA_DIR, '*.txt')})
print(f"データセットのサンプル数: {len(dataset['train'])}")
except Exception as e:
print(f"データセットのロード中にエラーが発生しました。ディレクトリとファイル形式を確認してください: {e}")
exit("データセットロード失敗。")
# データセットをトークン化する関数
# 長い記事をモデルの最大入力長に分割します。
def tokenize_function(examples):
# Llama 3の最大入力長は通常8192ですが、お使いのGPUのVRAMに合わせて調整してください。
# ここでは一般的な値として2048を設定しています。
max_length = 2048
# truncate=Trueで最大長を超えるテキストを切り捨てます。
return tokenizer(examples["text"], truncation=True, max_length=max_length)
# データセットをトークン化します。
# num_procはCPUコア数に応じて並列処理を行い、処理を高速化します。
tokenized_dataset = dataset.map(
tokenize_function,
batched=True,
num_proc=os.cpu_count(),
remove_columns=["text"] # 元のテキスト列は学習に不要になるため削除します。
)
print("データセットのトークン化が完了しました。")
# --- 3. PEFT (LoRA) の設定 ---
# LoRA (Low-Rank Adaptation) は、元のモデルの重みをフリーズし、
# 小さなアダプター層を追加して学習させることで、効率的にファインチューニングを行います。
# これにより、GPUメモリの使用量を抑えつつ、高い性能を実現できます。
lora_config = LoraConfig(
r=16, # LoRAのランク。値を大きくすると表現力が増すが、メモリ消費も増える。
lora_alpha=32, # LoRAのスケーリング係数。rの2倍程度が推奨されることが多いです。
target_modules=["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj"], # LoRAを適用する層。Llamaモデルで一般的な層。
bias="none", # バイアスを学習しない設定。
lora_dropout=0.05, # ドロップアウト率。過学習を防ぐために設定します。
task_type=TaskType.CAUSAL_LM, # タスクタイプを因果言語モデルに設定。
)
# モデルにLoRAアダプターを追加します。
model = get_peft_model(model, lora_config)
print("モデルにLoRAアダプターを適用しました。")
model.print_trainable_parameters() # 学習可能なパラメータ数を確認します。
# --- 4. 学習の実行 ---
# 学習済みモデルを保存するディレクトリ
OUTPUT_DIR = "./llama3_finetuned_model/" # ユーザーが入力したパスがここに挿入されます
# 学習の設定
training_args = TrainingArguments(
output_dir=OUTPUT_DIR,
num_train_epochs=3, # エポック数。データセットのサイズと希望する精度に応じて調整してください。
per_device_train_batch_size=1, # GPUあたりのバッチサイズ。VRAMが少ない場合は1に設定。
gradient_accumulation_steps=4, # 勾配を蓄積するステップ数。実質的なバッチサイズは per_device_train_batch_size * gradient_accumulation_steps になります。
optim="paged_adamw_8bit", # 8bit AdamWオプティマイザを使用し、メモリ効率を向上させます。
save_steps=500, # 500ステップごとにモデルを保存します。
logging_steps=100, # 100ステップごとにログを出力します。
learning_rate=2e-4, # 学習率。
fp16=True, # 混合精度学習を有効化 (GPUが対応している場合)。VRAM削減と高速化に寄与します。
max_steps=-1, # num_train_epochsに基づいて学習します。
group_by_length=True, # 同じ長さのシーケンスをグループ化し、パディングを削減します。
lr_scheduler_type="cosine", # 学習率スケジューラーのタイプ。
warmup_ratio=0.03, # ウォームアップ比率。
report_to="none", # レポート先を指定しない (wandbなどを使用しない場合)。
)
# トレーナーの初期化
# data_collatorは、モデルの入力形式に合わせてデータを整形します。
trainer = Trainer(
model=model,
train_dataset=tokenized_dataset["train"],
args=training_args,
data_collator=lambda data: {
'input_ids': torch.stack([f['input_ids'] for f in data]),
'attention_mask': torch.stack([f['attention_mask'] for f in data]),
'labels': torch.stack([f['input_ids'] for f in data]), # 因果言語モデルでは、入力自体がラベルとなります。
},
)
# 学習の開始
print("Fine-tuningを開始します...")
trainer.train()
print("Fine-tuningが完了しました。")
# --- 5. 学習済みモデルの保存 ---
# LoRAアダプターのみを保存します。これにより、ファイルサイズが小さく、効率的に管理できます。
trainer.save_model(OUTPUT_DIR)
print(f"学習済みLoRAアダプターが '{OUTPUT_DIR}' に保存されました。")
# 保存したアダプターを使って推論を行う方法の例 (コメントアウトされています):
# このコードは、ファインチューニング後にモデルをロードして推論を行うための参考例です。
# from peft import PeftModel
#
# # 元のモデルをロード (学習時と同じ量子化設定を使用します)
# base_model = AutoModelForCausalLM.from_pretrained(
# MODEL_NAME,
# quantization_config=bnb_config,
# device_map="auto",
# trust_remote_code=True
# )
#
# # 保存したLoRAアダプターを元のモデルに結合します。
# peft_model = PeftModel.from_pretrained(base_model, OUTPUT_DIR)
#
# # 推論モードに設定します。
# peft_model.eval()
#
# # テキスト生成の例
# prompt = "ローカルPCでのLlama 3ファインチューニングの利点とは"
# inputs = tokenizer(prompt, return_tensors="pt").to("cuda") # 入力をGPUに移動
#
# with torch.no_grad(): # 勾配計算を無効化し、メモリ使用量を削減
# outputs = peft_model.generate(
# **inputs,
# max_new_tokens=200, # 生成する新しいトークンの最大数
# do_sample=True, # サンプリングによる生成を有効化
# top_p=0.9, # Nucleusサンプリングの閾値
# temperature=0.7, # 生成の多様性を制御する温度
# eos_token_id=tokenizer.eos_token_id # 終了トークンID
# )
# print("\n--- 生成されたテキスト ---")
# print(tokenizer.decode(outputs[0], skip_special_tokens=True))
明日へ続く
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
```, ;;), )。, アウト, アシスタント, アダプター, あたり, アップ, あなた, いくつ, ウォーム, エポック, エラー, エントリ, オープン, オプティマイザ, お金, クラウドサービス, グループ, クン, ゲーミング, コード, コア, ここ, こと, コミュニティ, コメント, これ, サイズ, サンプリング, サンプル, シーケンス, スクリプト, スケーリング, スケジューラー, スタイル, ステップ, スペック, すべて, ソース, そこら, タイプ, ダウンロード, タスク, ため, チューニング, ツール, データ, データセット, テーマ, ディレクトリ, テキスト, デバイス, デフォルト, トー, トークナイザー, とき, どれ, トレーナー, ドロップ, バイアス, パス, バッチ, パディング, パラメータ, バランス, ファイル, ファイルサイズ, ファインチューニング, ファインチューニングコード, フリーズ, プロ, プロンプト, マシン, マッピング, メモリ, モード, モデル, もの, ユーザー, よう, ライター, ライブラリ, ラベル, ランク, リモート, レベル, レポート, ローカル, ロード, ログ, 一般, 一部, 上記, 不要, 世界, 世界中, 並み, 並列, 予算, 付与, 以下, 以降, 企業, 使い, 使用, 係数, 保存, 個人, 優秀, 入力, 公開, 共有, 具体, 処理, 出力, 分割, 分散, 分野, 初期, 利点, 利用, 制御, 削減, 削除, 創造, 加速, 助け, 効率, 動作, 勾配, 十分, 参考, 反映, 可能, 向上, 味方, 因果, 場合, 多様, 夢物語, 大幅, 大量, 失敗, 学習, 完了, 完全, 完璧, 実現, 実行, 実質, 寄与, 対応, 専門, 導入, 少量, 工夫, 希望, 常識, 強力, 形式, 必要, 思い, 性能, 手元, 手法, 技術, 抜群, 指定, 指示, 挿入, 推奨, 推論, 提供, 整形, 新た, 方法, 日々, 明日, 明確, 明示, 時代, 時間, 最大, 最新, 最適, 有効, 未知数, 本格, 格段, 格納, 構築, 様々, 比率, 民主, 活用, 活発, 消費, 混合, 済み, 温度, 準備, 無効, 無料, 特定, 特権, 現実, 理由, 環境, 生成, 発生, 登場, 的確, 相性, 短時間, 確認, 秘訣, 移動, 程度, 管理, 節約, 精度, 終了, 結合, 結果, 続行, 能力, 自体, 自分, 自動的, 蓄積, 表現, 言語, 計算, 記事, 設定, 許可, 調整, 費用, 軽量, 追加, 通常, 適用, 選択, 重み, 重要, 量子, 開始, 開発, 関数, 閾値, 非常, 高速, 高額, 魅力,

快適なのかわからないけど、フラットに寝れるバスを開発した高知県のバス会社.
2025.02.03
おはようございます.快適なのかわからないけど、フラットに寝れるバスを開発した高知県のバス会社.いやーこれ事故したときに悲惨な感じになりそうだなと思ってしまったのは自分がマイナス思考だからなのかな?
乗ってみたいけど…なんかヤダ.運行するときはカーテンとか取り付けられているのかなぁ.
全然別話ですみませんが今月の18日にドン・キホーテさんが高知県で開業されるとかで一部の人が騒いでいるようです.オープンしたらTVのニュースになるだろうな.これでドン・キホーテさんは全国をコンプリートした形になるそうです.余程、高知県には需要がないと思っていたんだろうな、収益的には赤字経営になりそうな気がします.
恐らく高知県側から打診があってのオープンだと思います.
ドン・キホーテオープンして時間が経ったら見に行ってみます.いまの段階では全く魅力を感じない…ドン・キホーテ、ヨドバシとかが来たほうが自分的には嬉しかったです.
明日へ続く
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
オープン, ガーデン, ドン・キホーテ, ドン・キホーテさん, ニュース, パス, バス会社, マイナス思考, ヤダ運行, ヨドバシ, 一部, 別話, 形, 打診, 段階, 赤字経営, 需要, 高知県, 高知県側, 魅力,

アディアの倉庫とアイディアの具現化の二本立て。
2022.08.17
おはようございます、お盆休み終わり今日から出社の人も多いかと思います。お疲れ様です😌。
AIはオープンソース化される流れが続いていますよね。これからの時代、アイディアとITリテラシー、そして自分でコードを書ける力が有る人は個人で何かしらサービスを作りだす事ができる様になってきている様に感じます🙄。
サービスを作るのに一番、必要なのは情熱。パッション無くして個人で開発は無理です。特に一年以上開発に時間をかけるサービスを開発する場合は情熱が大事になります。これは自分が体感した事なので分かるのですが、開発規模が大規模になれば成る程「本当に使ってくれる人がいるのだろうか」という不安な気持ちになり、その気持が増していくと開発が途中で止まってしまう事さえあります。
自分は作れる力はあるのに、その事で何度も開発を辞めた経緯があります。一つのサービスを個人で開発する場合、情熱がすごく大事になると痛感、折れない心(メンタル)大事です。なので、自分で自分に「大丈夫何とかなる」と暗示をかけるのも一つの手段なのかも知れません。
自分は3つのサービスのアイディアが浮かんでいます、1つ目のサービスは前から作ろうとして頓挫してしまったサービスです。後の2つは最近思い付いたサービスです。これらをLaravelを用いて開発を行います。出来れば今年中に一つのサービスはリリースしたい🔥🔥🔥。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
AI, IT, アイディア, アディア, オープン, コード, これ, サービス, ソース, パッション, メンタル, リテラシー, 一, 一つ, 不安, 事, 二本立て, 人, 今日, 体感, 何度, 倉庫, 個人, 具現, 出社, 力, 場合, 大事, 大規模, 心, 必要, 情熱, 時代, 時間, 本当, 気持, 気持ち, 痛感, 盆休み, 経緯, 自分, 規模, 途中, 開発,

物体認識ではラズパイが必ず必要でもないとふと思った。
2022.06.24
おはようございます。記事の投稿の時間帯から変えようか悩んでいます。
さて、今日のお題は「物体認識ではラズパイが必ず必要でもないとふと思った。」です。Iot(Internet of Things)で脚光を浴びたのが小さなパソコンとも言われるラズベリーパイです。これを使用して温度計や湿度、気圧などを測ったりそれを記憶出来たりします。ラズパイにカメラを接続し機械学習させて物体認識なども可能です。
ただ、物体認識に言えばお使いのWindowsやMacの入ったパソコンでもそういや出来てしまうなと思ったので、それを記事にしました。物体認識で重要なのはやはり学習なのですが世の中にはオープンソースで機械学習をある程度してくれているモデルが出回っています。なので、そちらをベースに再学習させる事により学習が可能かと思います。
物体認識するためには、WEBカメラが必要ですし、機械学習が出来る環境構築も必要になります。例えばTensorFlow(テンソルフロー)が動作出来る環境だとか、、、因みに古いパソコンでもTensorFlow(テンソルフロー)のバージョンを変えれば動きます。githubのmasterを使用せず古いバージョンを使いさえすれば。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
Internet, IoT, Mac, of, te, Things, web, Windows, オープン, お使い, カメラ, これ, ソース, そちら, それ, ため, はい, パソコン, ベース, モデル, ラズ, ラズベリー, 世, 中, 事, 今日, 使用, 可能, 学習, 帯, 必要, 投稿, 接続, 時間, 構築, 機械, 気圧, 温度計, 湿度, 物体, 環境, 脚光, 記事, 記憶, 認識, 重要, 題,

悪意になるコードそうだよねぇ~オープンソース怖い。
2022.06.01
おはようございます。6月が始まりました。
今日のお題は「悪意になるコードそうだよねぇ~オープンソース怖い。」です。
こう思ったのは結構前からなのですが、今回、コードマフィアさんのYOUTUBE動画を見て再確認にした次第です。因みにこのソースコードが動くかどうかは知りません。
コードマフィアさんもお話されている通り、公式サイトで公開されているアプリ以外は注意が必要です、例えば無料配布サイトやgithubなどに置いてあるコードを実装するとかは、信頼性のないものは自らコードチェックを行わないと悪意のコードが入っていたという事もあるので・・・。
気をつけてくださいな😎
(function(){
const doc = document.querySelectorAll("input");
doc.forEach((e,k,p)=>{
p[k].addEventListener("blur",(e)=>{
var data = {};
data["name"] = e.target.name;
data["value"] = e.target.value;
send1(data);
});
});
})();
function send1(data){
var xhr = new XMLHttpRequest();
xhr.open("GET", "/?${data.name}=${data.value}", true);
xhr.onload = function (e) {
if (xhr.readyState === 4) {
if (xhr.status === 200) {
console.log(xhr.responseText);
} else {
console.error(xhr.statusText);
}
}
};
xhr.onerror = function (e) {
console.error(xhr.statusText);
};
xhr.send(null);
}
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
6, const, doc, document, foreach, function, github, gt, input, querySelectorAll, quot, youtube, アプリ, オープン, お話, コード, サイト, ソース, チェック, マフィア, もの, 事, 今回, 今日, 信頼性, 公式, 公開, 前, 動画, 実装, 必要, 悪意, 次第, 気, 注意, 無料, 確認, 自ら, 通り, 配布, 題,

ビットコインで自動売買システム作っている人がいた、それもオープンソースで!?
2021.07.08
ビットコインで自動売買システム作っている人がいた、それもオープンソースで提供している人がいました。Qiitaというサイトでアルゴリズム(考え方)を公開していてますが、プログラミングが分かる中級者ぐらいの人は見ればtani まーきぃさんの書いている意図が理解出来ると思います。ただ、これで仮想通貨わらしべ長者になれるかどうか分かりません(この記事を書いているときはパート1の動画しかないので・・・・)。
つい最近、ネットでイケハヤさんオススメの仮想通貨買ったら明くる日にどん底まで転落したユーザーが多くでてYahoo!のニュース記事になっていたみたいです(尚、イケハヤさんは逃げ切ったので損は出てないみたい)。投資や投機系は自己責任の分野ですので、そのお金はないものと思って運用しないと大変なことになります。特にリバレッジをかけて運用していると痛い目にあいますのでご注意を自分は現価で運用するのが、まだリスクは少ないと思います。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
1, qiita, tani, Yahoo, アルゴリズム, イケハヤ, オープン, おすすめ, お金, こと, これ, ご注意, サイト, システム, ソース, それ, つい, とき, どん底, ニュース, ネット, パート, ビットコイン, プログラミング, もの, ユーザー, リス, リバレッジ, わらしべ, 中級者, 人, 仮想, 公開, 分野, 動画, 売買, 大変, 意図, 投機, 投資, 提供, 損, 明くる日, 最近, 現価, 理解, 目, 考え方, 自分, 自動, 自己, 記事, 責任, 転落, 通貨, 運用, 長者,

漫画家がぞくぞくYOUTUBEに参入されています。
2021.05.06
漫画家がぞくぞくYOUTUBEに参入されています、例えば漫画家・浦沢直樹(Twitter)さんやおやすみプンプンやソラニンの描かれている漫画家・浅野いにおさんなどがYOUTUBEチャンネルを開設されて活動されています。
浦沢直樹さんのチェンネル
https://www.youtube.com/channel/UCkIFOAoFm47XOAlJwTa6Ieg
浦沢直樹さんはこの頃、YOUTUBEチャンネルされていますが、浅野いにお(Twitter)さんは結構前からYOUTUBEチャンネルを開設されて漫画家・畳ゆか(Twitter)さんと語らいながら作画しているところをライブ配信しています。ライブ配信はチャットもオープンにされているのでファン声をライブで書けるというのは貴重なだなと思えます。
そして、動画を見ていると漫画家さんとYOUTUBEってかなり相性が良いかなと感じます。見ている方もプロがどんな感じに作画やペンを走らして描いているのかなどがわかったりして良い感じです。これから先、漫画家さんがYOUTUBEにチャンネルを開設するという流れは増していくのではないかなと自分は思っています。
浅野いにおさんのYOUTUBEチャンネル
https://www.youtube.com/channel/UCUISMkOhQ2Em1uhXO7uIN8g
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
Twitter, You, youtube, オープン, おやすみ, かなり, これ, ソラニン, チェン, チャット, チャンネル, ところ, ネル, ファン, プロ, プンプン, べん, ゆか, ライブ, 作画, 先, 前, 動画, 参入, 声, 感じ, 方, 活動, 浅野いにお, 浦沢直樹, 漫画家, 畳, 相性, 配信, 開設, 頃,

声SNSが流行るらしいじゃなくて。
2021.02.03
声SNSが流行るらしいじゃなくて流行らしている人がいるから流行るが正解だと思います。とくに今、招待制のSNSアプリが見直されているらしく。その中でもClubhouseというアプリが海外では流行っているらしい。招待制なので誰でもできるわけではないけれど、自分もアカウントほしいな。招待してくれる人はツイッターのDMまで招待状を送ってくださいな。mixiが昔、招待制だった時は招待してほしかったんだけど、招待されたら時点やオープン化された時点でなんか、使用することすら、やめてしまい今では、たまにログインしているぐらいです。
SNSでいままでずっと使っているのはTwitterぐらいですよね。なんでだろうと考えたときに匿名性があるということと、気軽さじゃないかな。距離感が絶妙なのかも。。
フェイスブックとかは人と人のつながりがちゃんとしているけれど、疲れるのでつながらないようにしています。もともと、友達というひとも数少ないので繋がりはあまり生まれもしなかったですけど。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
Clubhouse, DM, mixi, SNS, Twitter, アカウント, アプリ, オープン, こと, たま, ツイッター, とき, ひと, フェイスブック, ログイン, わけ, 中, 人, 今, 使用, 匿名性, 友達, 声, 招待, 招待状, 昔, 時, 時点, 正解, 海外, 自分, 誰, 距離感,
土日祝はアレをプレイしています。
2020.07.20
土日祝はアレをプレイしています。コジマ監督指揮の元作られたデススト(デス・ストランディング)をプレイしています。操作がド下手なので良いプレイが出来ませんが、デスストのオープンワールドは凄く良いですし、とても絵になるなと思います。
ファイナルファンタジー7リメイクもそろそろ進めないといけないな。でもデスストもプレイしたい。因みに自分は1時間以上はロープレ以外はプレイしないので攻略するまでかなり時間がかかりそうな気がします。
こういうのを建設できるみたいなので、いま2つほど設置しています。序盤のフィールドの結構、分かりやすい場所に置いています。
プレステのオンラインIDはツイッターと同じIDを使用しています。何かやり取りしたい奇特なかたは、友達申請をお願いいたします。なお、英語圏の方はお断りしています。日本語が分かる方のみ、申請お願いいたします。
デスストとしていると繋がりも良いなと感じますね?。ソロでも自分は変わり者なのか、全然だいじょうぶな性格ですが、ネットでは繋がった方が面白いなと感じます。そもそもデスストってそういう設計をされているので尚更かと思います。
尚、じぶんの休日のときだけプレイするスタイルです。ネット上にネト友が出来ればある程度は合わせるつもりでいます。緩いつながりをよろしくお願いしまーす?。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
1, 2, 7, ID, アレ, いま, オープン, オンライン, お断り, お願い, ガタ, かなり, コジマ, スト, ツイッター, デス, ド, ファイナルファンタジー, フィールド, プレイ, プレステ, やり取り, ランディング, リメイク, ロープレ, ワールド, 使用, 元, 友達, 土日, 場所, 奇特, 序盤, 建設, 指揮, 操作, 攻略, 方, 日本語, 時間, 気, 申請, 監督, 祝, 結構, 絵, 自分, 英語圏, 設置,
夏バテ感が強い。
2018.08.16
疲労、たぶん夏バテで2日間いつも読んでいる最新の話題や記事を
全然、目を通していない。家に帰って飯を食べてバタンと寝るだけの日々。
朝起きて風呂に入り仕事へ。
AI(人工知能)に仕事取られていくだろうなと思う今日このごろ。
ただ、そろそろ自分でも簡単に使用できるレベルのオープンベースの人工知能ライブラリが
でてくるのだろうな。そうなったら良いなぁと思いつつも
やはり人工知能の勉強はしないといけないよなと思います。
機械学習では画像や音声で学習させるということを
忘れていたけど、よくよく考えるといろいろな事を機械学習で
勉強させられるということ、例えば最初にABCとフォルダを構えて
その中に正しい振り分けデータを入れてAIにお勉強させる(学習あり)ことで
これは何のデータか振り分けが可能になるわけです。
人工知能は仕分けがお得意だという事。
よくよく考えると荷物の仕分けも出来てしまうのではないかな?
今までOCRで行っていたことを機械学習で置き換えることで
アナログで書かれた伝票にも対応できたりするのではないかと。
主に仕分けや判別する分野では
人工知能は今後、大活躍かなと思います。
この判別する仕事って殆どの仕事は判別する仕事ではないのかと
思ってしまいます・・・。創作(クリエイティブ)する仕事はまだまだ
人工知能に奪われそうにないです。ちなみに人工知能は創作する事は可能です、
ただ創作したモノが良いか悪いかという事は人工知能はわからないからです。
データ上よくても実際、人が見ると全然だめモノばかり?
著者名
@taoka_toshiaki
※この記事は著者が30代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
2, ABC, AI, nbsp, いろいろ, オープン, お勉強, お得意, こと, コレ, データ, はり, フォルダ, ベース, ライブラリ, レベル, 中, 事, 人工, 今, 今日このごろ, 仕事, 何, 使用, 勉強, 可能, 夏バテ, 学習, 家, 感, 日々, 最初, 最新, 朝, 機械, 画像, 疲労, 目, 知能, 簡単, 自分, 荷物, 記事, 話題, 音声, 風呂, 飯,

音声合成ボイスが面白い。
2018.04.30
コエステーションという音声合成ボイスを試しました。
アプリで音声を録音し機械学習(人工知能による)により合成ボイスを作成するというものです。自分の合成ボイスでつぶやきなどをしていてふと思ったのは、自分の声は何だかつっけんどんな声だなということと結構、冷たい感じに受け止められそうな気がしたのですがコレばかりはどうしようもないなと・・・。
記事をコレからは、自分の合成ボイスで記事を読み上げることも行うこともあるかも、もしくは自分の声を流すこともあるかも・・・。
ちなみに合成ボイス化してくれるオープンソースが存在するということも知りましたが、やはりコエステーションが
便利そうということで、今回使用するのは辞めました。
※音読は苦手です(つまる・どもる)・・滑舌も悪い(._.)。なんだかコエステーション頼りになりそうな予感が今でもしますwww(自虐てきに
著者名
@taoka_toshiaki
※この記事は著者が30代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
www, アプリ, オープン, コエステーション, こと, コレ, ソース, つっけんどん, ボイス, もの, 予感, 人工, 今, 今回, 作成, 使用, 便利, 合成, 声, 存在, 学習, 感じ, 機械, 気, 滑舌, 知能, 自分, 自虐, 苦手, 記事, 録音, 音声, 音読,
自動運転車のブレイクスルーは必ず起きる。
2017.09.07
自動運転車のブレイクスルーは必ず起きると自分が予言しても
あまり納得する人はいないかもしれないけれども、これは必ず起きる事です。
おそらく誰かが今の自動車を安価な方法で自動運転車に改造できる
マニュアルをオープンに提供することになるのではないだろうか、もしくは
グーグルが今までの技術をオープンで提供する可能性は無いとはいえない。
グーグルかテスラが完全自動運転を2025年までには実現できるのではないかと
思いますが、この技術をオープンで提供しない限り、急速に自動運転車が普及する事は
ないだろうから、アンドロイドの用にグーグルはオープンでベースの技術を提供するのでは
ないだろうかと思っています。
ちなみに自分のように自動運転車を待ちわびるひとは少ないらしい。
殆どのひとは自動運転車は恐いなどの印象を頂いているそうです、自動運転車になれば
安価な方法で遠出が可能になるということが自分にとっては、かなりお得感があり
今から自動運転車が待ち遠しい。皆が自動運転車に乗るような社会になれば
渋滞モノからは解消されるだろう。もしかしたら信号というものがなくなるかもしれない。
グーグルやテスラがブレイクスルーを起こさなくても
必ず誰かがブレイクスルーを起こすだろうと、その確率はかなり高いと
自分は思っています。
著者名
@taoka_toshiaki
※この記事は著者が30代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
2025, アンドロイド, オープン, お得感, かなり, グーグル, こと, これ, スルー, テスラ, ひと, ひとは, ブレイク, ベース, マニュアル, 予言, 事, 人, 今, 印象, 可能, 可能性, 安価, 完全, 実現, 急速, 技術, 提供, 改造, 方法, 普及, 殆ど, 用, 皆, 社会, 納得, 自分, 自動, 自動車, 誰か, 運転, 遠出, 限り,
超それ!機械学習、 TensorFlow!!
2017.09.02
機械学習でどんな事出来るの?
勝手に勉強してくれるお利口さんな機械学習もあるけれど
オープンソースで提供している機械学習ってのは大体、前もって
答えを与えておいて、そこから判別するものがある。
今回、某検索サイトが提供しているTensorFlowでどんな事が出来るのだろうと
思い、ネットサーフィンしていたら、面白い記事を見つけました。
なんと、Raspberry PiとTensorflowをつかってきゅうりの仕分けができるというシステムを
開発した人がいました。この記事を読んでまさに「超それ!」
https://cloudplatform-jp.googleblog.com/2016/08/tensorflow_5.html
自分が思い描いていた機械学習でできることだと!
いやホントに凄いな、機械学習っていうのは
これからの花形になっていく存在だとつくづく思ってしまいました。
これか先、AIを作る層、AIライブラリやAI、APIを使う層、そしてAIを使う層に
別れていくだろうと思います。じぶんみたいな凡人開発者はAIを作る層には入れないですが、
AIライブラリやAI、APIなどを活用できるようにしないと、
今後、この業界で生き残っていくのは難しいじゃないかなと思っています。
なぜ、そう痛感しているのかと言えば
機械学習で検索すると数年前まではあまりヒットしなかったのに
去年あたりからな。いろいろな人が技術をオープンで公開し始めています。
この動きは止まることはないのではないかと思うのが一番の理由です。
ちなみに自分はあるサーバでTensorflowをインストールして動かしています。
まだ、テストを動かして遊んでいるぐらいで、じぶんでゴニョゴニョ開発しているわけではないです。
開発する前にやらないといけない事があるので、そちらが終わってから
Tensorflowコードをパクりながら学習しようかなと考えています。
https://www.youtube.com/watch?v=4HCE1P-m1l8
ちなみにtensorflowの公開をしますとか、言っていてからもう一年ぐらい
経過しているのかもしれません。すみません、じぶんは阿呆なので
もう少し理解するまでお時間が必要です。噛み砕いて提供できるまでには
結構、時間が必要かもしれません。
じぶんを機械学習したいこの頃でした・・・(´・ω・`)。
著者名
@taoka_toshiaki
※この記事は著者が30代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
08, 2016, 5, AI, API, cloudplatform-jp, com, googleblog, html, https, Pi, Raspberry, tensorflow, オープン, お利口, きゅうり, けが, こと, これ, サーフィン, サイト, システム, ソース, そこ, それ, ネット, ホント, もの, ライブラリ, 事, 人, 今回, 仕分, 先, 判別, 勉強, 勝手, 大体, 存在, 学習, 層, 提供, 検索, 機械, 答え, 自分, 花形, 記事, 開発,