@Blog
日常日誌からプログラムやYOUTUBER紹介、旅日記まで日々更新中です。

AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでも.
2025.06.22
おはようございます.AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでもなくローカルPCでそこら辺に落ちているLlamaモデルを持ってきてチューニングすれば何とかなるじゃねぇという思いに至った.
実はあなたの手元にあるPCと、そこら中に「落ちている」オープンソースのAIモデル、特にLlama 3があれば、十分記事が生成できるんです。
ローカルAI記事生成は、もはや夢物語じゃない
「AIで記事生成」と聞くと、SFのような世界や、大企業だけが使える特権のように感じるかもしれません。しかし、今は違います。オープンソースの強力な言語モデル、特にMetaが公開したLlama 3の登場は、この常識を大きく覆しました。
Llama 3は、その性能の高さにもかかわらず、誰でも無料で利用できるという点が最大の魅力です。さらに、80億パラメータの8Bモデルであれば、最新のゲーミングPCとまではいかなくとも、ある程度の性能を持つPCであれば十分に動作します。これにより、高額なクラウドサービスを利用せずとも、自分のPCでAI記事生成の環境を構築することが現実的になりました。
なぜLlama 3があなたのPCと相性抜群なのか?
Llama 3がローカルPCでの記事生成に適している理由はいくつかあります。
- 完全無料のオープンソース: 利用に費用がかからないため、予算を気にせずAIを試したり、本格的に導入したりできます。
- 選べるモデルサイズ: Llama 3には様々なサイズのモデルがあり、PCのスペックに合わせて選べます。特に8Bモデルは、個人利用に最適なバランスを持っています。
- 活発な開発者コミュニティ: 世界中の開発者がLlama 3を使った新しいツールや効率的なチューニング方法を日々共有しています。困ったときには助けを借りられる心強い味方です。
- 「量子化」でさらに軽量に: モデルのサイズを大幅に小さくする「量子化」という技術を使えば、より少ないメモリでLlama 3を動かせるようになります。これにより、より多くのPCで利用の道が開けます。
あなたのPCを「記事生成マシン」に変える秘訣
もちろん、いきなりプロのライター並みの記事をAIに書かせるのは難しいかもしれません。しかし、ちょっとした工夫で「何とかなる」レベルの記事生成は十分に可能です。
- 少量のデータでファインチューニング: 大量の記事データは不要です。あなたが書きたい記事のテーマやスタイルに合った、質の良い記事を数十〜数百程度集めてLlama 3を学習(ファインチューニング)させれば、その分野に特化した記事生成能力が格段に向上します。
- プロンプト(指示文)の工夫: AIへの「指示の出し方」は非常に重要です。具体的で明確なプロンプトを与えることで、チューニングが完璧でなくても、驚くほど質の高い記事が生成できます。これはまるで、優秀なアシスタントに的確な指示を出すようなものです。
- 効率的な学習方法の活用: 「LoRA(Low-Rank Adaptation)」のような効率的なファインチューニング手法を使えば、少ないGPUメモリでも短時間でモデルを特定のタスクに最適化できます。
あなたの創造性が、今、AIで加速する
かつては一部の専門家や企業にしか手の届かなかったAIによる記事生成が、今やあなたのPCで実現できる時代になりました。これはまさにAI技術の「民主化」です。
とまぁそういう訳なので何とかしてみますが、ファインチューニングにどれぐらい時間がかかるのかが未知数だったりする.
ファインチューニングPythonコード
以下のPythonコードは、Llama 3モデルをロードし、提供されたテキスト記事でファインチューニング(LoRA使用)を実行し、結果を保存します。 上記の入力値は、このコードに自動的に反映されます。 このコードをPythonファイル(例: `finetune_llama.py`)として保存し、実行してください。
import os
import torch
from datasets import load_dataset
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig, TrainingArguments, Trainer
from peft import LoraConfig, get_peft_model, prepare_model_for_kbit_training, TaskType
# GPUの利用可能性を確認
print("GPUが利用可能か確認中...")
if not torch.cuda.is_available():
print("GPUが見つかりません。Fine-tuningにはGPUが強く推奨されます。")
# GPUがない場合は、ここでスクリプトを終了するか、CPUモードで続行するか選択できます。
# exit("GPUがないため終了します。")
else:
print(f"GPUが利用可能です: {torch.cuda.get_device_name(0)}")
# --- 1. モデルとトークナイザーのロード ---
# Llama 3モデルのパスを指定します。Hugging Faceのモデル名(例: "meta-llama/Llama-3-8B")
# またはローカルにダウンロードしたモデルのパスを指定してください。
MODEL_NAME = "meta-llama/Llama-3-8B" # ユーザーが入力したパスがここに挿入されます
print(f"モデルとトークナイザーをロード中: {MODEL_NAME}")
# 4bit量子化設定 (GPUメモリの節約に役立ちます)
# bnb_4bit_compute_dtypeは、Ampere以降のNVIDIA GPUに推奨されるbfloat16を使用しています。
bnb_config = BitsAndBytesConfig(
load_in_4bit=True,
bnb_4bit_use_double_quant=True,
bnb_4bit_quant_type="nf4", # NF4 (NormalFloat4) 量子化タイプ
bnb_4bit_compute_dtype=torch.bfloat16
)
# トークナイザーをロード
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME, trust_remote_code=True)
# Llama 3はデフォルトでbos_tokenを付与しないことがあるため、明示的に追加。
# また、padding_side='right'はLlamaモデルに推奨される設定です。
tokenizer.pad_token = tokenizer.eos_token
tokenizer.padding_side = "right"
# モデルをロードし、量子化設定を適用し、自動的にGPUにマッピングします。
model = AutoModelForCausalLM.from_pretrained(
MODEL_NAME,
quantization_config=bnb_config,
device_map="auto", # 利用可能なデバイス(GPU)に自動的にモデルを分散
trust_remote_code=True # リモートコードの実行を許可
)
print("モデルロード完了。")
# k-bit学習用にモデルを準備 (PEFTライブラリのため)
# gradient_checkpointingを有効にすることで、メモリ使用量をさらに削減できます。
model.gradient_checkpointing_enable()
model = prepare_model_for_kbit_training(model)
print("k-bit学習用にモデルを準備しました。")
# --- 2. データセットの準備 ---
# あなたのテキスト記事ファイルが格納されているディレクトリを指定します。
# 例: 'your_article_data/' の中に 'article1.txt', 'article2.txt', ... と置かれている場合
DATA_DIR = "./your_article_data/" # ユーザーが入力したパスがここに挿入されます
print(f"データセットをロード中: {DATA_DIR}")
# 'text'形式でデータセットをロードします。指定されたディレクトリ内のすべての.txtファイルを読み込みます。
# 各ファイルが1つのエントリとして扱われます。
try:
dataset = load_dataset('text', data_files={'train': os.path.join(DATA_DIR, '*.txt')})
print(f"データセットのサンプル数: {len(dataset['train'])}")
except Exception as e:
print(f"データセットのロード中にエラーが発生しました。ディレクトリとファイル形式を確認してください: {e}")
exit("データセットロード失敗。")
# データセットをトークン化する関数
# 長い記事をモデルの最大入力長に分割します。
def tokenize_function(examples):
# Llama 3の最大入力長は通常8192ですが、お使いのGPUのVRAMに合わせて調整してください。
# ここでは一般的な値として2048を設定しています。
max_length = 2048
# truncate=Trueで最大長を超えるテキストを切り捨てます。
return tokenizer(examples["text"], truncation=True, max_length=max_length)
# データセットをトークン化します。
# num_procはCPUコア数に応じて並列処理を行い、処理を高速化します。
tokenized_dataset = dataset.map(
tokenize_function,
batched=True,
num_proc=os.cpu_count(),
remove_columns=["text"] # 元のテキスト列は学習に不要になるため削除します。
)
print("データセットのトークン化が完了しました。")
# --- 3. PEFT (LoRA) の設定 ---
# LoRA (Low-Rank Adaptation) は、元のモデルの重みをフリーズし、
# 小さなアダプター層を追加して学習させることで、効率的にファインチューニングを行います。
# これにより、GPUメモリの使用量を抑えつつ、高い性能を実現できます。
lora_config = LoraConfig(
r=16, # LoRAのランク。値を大きくすると表現力が増すが、メモリ消費も増える。
lora_alpha=32, # LoRAのスケーリング係数。rの2倍程度が推奨されることが多いです。
target_modules=["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj"], # LoRAを適用する層。Llamaモデルで一般的な層。
bias="none", # バイアスを学習しない設定。
lora_dropout=0.05, # ドロップアウト率。過学習を防ぐために設定します。
task_type=TaskType.CAUSAL_LM, # タスクタイプを因果言語モデルに設定。
)
# モデルにLoRAアダプターを追加します。
model = get_peft_model(model, lora_config)
print("モデルにLoRAアダプターを適用しました。")
model.print_trainable_parameters() # 学習可能なパラメータ数を確認します。
# --- 4. 学習の実行 ---
# 学習済みモデルを保存するディレクトリ
OUTPUT_DIR = "./llama3_finetuned_model/" # ユーザーが入力したパスがここに挿入されます
# 学習の設定
training_args = TrainingArguments(
output_dir=OUTPUT_DIR,
num_train_epochs=3, # エポック数。データセットのサイズと希望する精度に応じて調整してください。
per_device_train_batch_size=1, # GPUあたりのバッチサイズ。VRAMが少ない場合は1に設定。
gradient_accumulation_steps=4, # 勾配を蓄積するステップ数。実質的なバッチサイズは per_device_train_batch_size * gradient_accumulation_steps になります。
optim="paged_adamw_8bit", # 8bit AdamWオプティマイザを使用し、メモリ効率を向上させます。
save_steps=500, # 500ステップごとにモデルを保存します。
logging_steps=100, # 100ステップごとにログを出力します。
learning_rate=2e-4, # 学習率。
fp16=True, # 混合精度学習を有効化 (GPUが対応している場合)。VRAM削減と高速化に寄与します。
max_steps=-1, # num_train_epochsに基づいて学習します。
group_by_length=True, # 同じ長さのシーケンスをグループ化し、パディングを削減します。
lr_scheduler_type="cosine", # 学習率スケジューラーのタイプ。
warmup_ratio=0.03, # ウォームアップ比率。
report_to="none", # レポート先を指定しない (wandbなどを使用しない場合)。
)
# トレーナーの初期化
# data_collatorは、モデルの入力形式に合わせてデータを整形します。
trainer = Trainer(
model=model,
train_dataset=tokenized_dataset["train"],
args=training_args,
data_collator=lambda data: {
'input_ids': torch.stack([f['input_ids'] for f in data]),
'attention_mask': torch.stack([f['attention_mask'] for f in data]),
'labels': torch.stack([f['input_ids'] for f in data]), # 因果言語モデルでは、入力自体がラベルとなります。
},
)
# 学習の開始
print("Fine-tuningを開始します...")
trainer.train()
print("Fine-tuningが完了しました。")
# --- 5. 学習済みモデルの保存 ---
# LoRAアダプターのみを保存します。これにより、ファイルサイズが小さく、効率的に管理できます。
trainer.save_model(OUTPUT_DIR)
print(f"学習済みLoRAアダプターが '{OUTPUT_DIR}' に保存されました。")
# 保存したアダプターを使って推論を行う方法の例 (コメントアウトされています):
# このコードは、ファインチューニング後にモデルをロードして推論を行うための参考例です。
# from peft import PeftModel
#
# # 元のモデルをロード (学習時と同じ量子化設定を使用します)
# base_model = AutoModelForCausalLM.from_pretrained(
# MODEL_NAME,
# quantization_config=bnb_config,
# device_map="auto",
# trust_remote_code=True
# )
#
# # 保存したLoRAアダプターを元のモデルに結合します。
# peft_model = PeftModel.from_pretrained(base_model, OUTPUT_DIR)
#
# # 推論モードに設定します。
# peft_model.eval()
#
# # テキスト生成の例
# prompt = "ローカルPCでのLlama 3ファインチューニングの利点とは"
# inputs = tokenizer(prompt, return_tensors="pt").to("cuda") # 入力をGPUに移動
#
# with torch.no_grad(): # 勾配計算を無効化し、メモリ使用量を削減
# outputs = peft_model.generate(
# **inputs,
# max_new_tokens=200, # 生成する新しいトークンの最大数
# do_sample=True, # サンプリングによる生成を有効化
# top_p=0.9, # Nucleusサンプリングの閾値
# temperature=0.7, # 生成の多様性を制御する温度
# eos_token_id=tokenizer.eos_token_id # 終了トークンID
# )
# print("\n--- 生成されたテキスト ---")
# print(tokenizer.decode(outputs[0], skip_special_tokens=True))
明日へ続く
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
```, ;;), )。, アウト, アシスタント, アダプター, あたり, アップ, あなた, いくつ, ウォーム, エポック, エラー, エントリ, オープン, オプティマイザ, お金, クラウドサービス, グループ, クン, ゲーミング, コード, コア, ここ, こと, コミュニティ, コメント, これ, サイズ, サンプリング, サンプル, シーケンス, スクリプト, スケーリング, スケジューラー, スタイル, ステップ, スペック, すべて, ソース, そこら, タイプ, ダウンロード, タスク, ため, チューニング, ツール, データ, データセット, テーマ, ディレクトリ, テキスト, デバイス, デフォルト, トー, トークナイザー, とき, どれ, トレーナー, ドロップ, バイアス, パス, バッチ, パディング, パラメータ, バランス, ファイル, ファイルサイズ, ファインチューニング, ファインチューニングコード, フリーズ, プロ, プロンプト, マシン, マッピング, メモリ, モード, モデル, もの, ユーザー, よう, ライター, ライブラリ, ラベル, ランク, リモート, レベル, レポート, ローカル, ロード, ログ, 一般, 一部, 上記, 不要, 世界, 世界中, 並み, 並列, 予算, 付与, 以下, 以降, 企業, 使い, 使用, 係数, 保存, 個人, 優秀, 入力, 公開, 共有, 具体, 処理, 出力, 分割, 分散, 分野, 初期, 利点, 利用, 制御, 削減, 削除, 創造, 加速, 助け, 効率, 動作, 勾配, 十分, 参考, 反映, 可能, 向上, 味方, 因果, 場合, 多様, 夢物語, 大幅, 大量, 失敗, 学習, 完了, 完全, 完璧, 実現, 実行, 実質, 寄与, 対応, 専門, 導入, 少量, 工夫, 希望, 常識, 強力, 形式, 必要, 思い, 性能, 手元, 手法, 技術, 抜群, 指定, 指示, 挿入, 推奨, 推論, 提供, 整形, 新た, 方法, 日々, 明日, 明確, 明示, 時代, 時間, 最大, 最新, 最適, 有効, 未知数, 本格, 格段, 格納, 構築, 様々, 比率, 民主, 活用, 活発, 消費, 混合, 済み, 温度, 準備, 無効, 無料, 特定, 特権, 現実, 理由, 環境, 生成, 発生, 登場, 的確, 相性, 短時間, 確認, 秘訣, 移動, 程度, 管理, 節約, 精度, 終了, 結合, 結果, 続行, 能力, 自体, 自分, 自動的, 蓄積, 表現, 言語, 計算, 記事, 設定, 許可, 調整, 費用, 軽量, 追加, 通常, 適用, 選択, 重み, 重要, 量子, 開始, 開発, 関数, 閾値, 非常, 高速, 高額, 魅力,

ファンが生きてるのに[cpu fan error please check]な場合の対処法.
2024.08.18
おはようございます.ファンが生きていてCPUの温度も上がってないのに[cpu fan error please check]な場合はほぼファンが原因ではなくてBIOSのファームウェアが古いのが原因ですので、BIOSのファームウェアのアップデートを行ってください.それでも解決しない場合は専門的な人のサポートを受けるべしです.

因みにBIOSのファームウェアアップデートが恐ろしくて行えない場合は専門的な人に対応して貰ったほうが良いです.BIOSなので間違ったらパソコンが起動しなくなる可能性を秘めているので、かなり注意が必要になります.
手順は各マザーボードによって違う可能性があるので、各製品の公式サイトのマニュアルを参考にしてみてください.
自分はじぶんで恐る恐るBIOSのファームウェアアップデートを行いファンのエラーが消えました.
明日へ続く.
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
BIOS, CPU, cpu fan error, please check, アップデート, エラー, サポート, じぶん, パソコン, ファームウェア, ファームウェアアップデート, ファン, マニュアル, 原因, 参考, 古い, 各マザーボード, 各製品, 手順, 温度,

Remo-mini2を購入しました.使い道は?
2024.06.10
おはようございます.Remo-mini2を購入しました.リモミニとはNature社が開発・販売するスマートリモコンです.赤外線リモコンの信号を学習することで、スマートフォンやスマートスピーカーで家電を操作することができます.
これによって自動(時間)で照明を付けたり消したり、ある一定の温度になると冷暖房がONになったりOFFにできたりします.ただ、其れだけが出来る機械です、お値段も4000円ちょっとするもので高額と言えば高額なんだけど、前々から気になっていて思い切って先日購入しました.
何気に自動で照明ONOFFは便利ですね.
あらゆる家電を自動化したくなります、次はスマートプラグとかいうコンセントを購入してみたいなって思っています.ある意味散財って奴ですけどね😅.
明日へ続く.
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
Nature社, off, ON, Remo-mini2, コンセント, スマートスピーカー, スマートプラグ, スマートリモコン, リモミニ, 一定, 信号, 冷暖房, 前々, 家電, 意味散財, 機械, 温度, 照明, 照明ONOFF, 赤外線リモコン,

温暖化は存在しない地球変動ですと唱える人達、本当に??
2023.07.28
おはようございます、温暖化は存在しない地球変動ですと唱える人達、本当にそう信じ込んでいるの??大丈夫なのかと思ってしまいます。学者たちもそう言っている人もいるそうですが、自分はそうは思わないですね。根拠はありませんが、恐らく人間が地球の環境を壊したことにより今の温暖化があると思います。
地球変動でこうなっているという人はよく言うのは温暖化説の裏にはお金儲けの裏があるというけれど、数十年で温度がこんなにも上がるというのは変じゃないのと思ってます。オゾン層が破壊されたとき、北極や南極の影響は出ないといっていた多くの人達と地球変動説を唱える人は同じだと思います。

グレタさんの世代は未来はかなり心配だと思っているひとが多いと思うですよね。なんだか少数の人々が言っていることにも耳を傾けないとまた同じ過ちを繰り返すのではないかなって。
文明がこんなにも進んでも戦争や環境破壊を止めないなんて人間はあまり賢くない生物なのに人間は賢いと思っているですよねぇ…。それが消えない限り、宇宙外生命体なんてものには遭遇しないだろう。
とTwitterのタイムラインを見て思いました、著名人が言っているとみんなそれが本当にそうだと思うですね・・・。疑問を持ちましょうよ???本当にそうなのかと?みんなが言うからそうだとは限らないという事をちょっと伝えたかった。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
Photo by Sahil prajapati on Pexels.com, Twitter, オゾン層, グレタさん, ひと, 世代, 人々, 北極, 南極, 地球, 地球変動, 地球変動説, 少数, 戦争, 文明, 根拠, 温度, 温暖化, 生物, 疑問,

LinkedIn(リンクトイン)で個人情報を取られました。
2021.09.24
今日は晴天です、お外は暑いですが部屋の中は丁度よい温度ですね。
さて、いきなりですがLinkedIn(リンクトイン)であるアカウントに個人情報を取られました。 LinkedInというのはビジネスに特化したSNSです。ビジネス版のフェイスブックだと考えて頂けたら良いかと思います。そのLinkedInにスクウェア・エニックスの人事を名乗る人から面談のお誘いがあり、本日、電話面談を行う予定でしたが時間になっても電話ならず今に至ります。
自分の名前と個人情報である電話番号が抜き取られましたが自分はあまり痛くありません、情報漏れしたのは050の電話番号だからです。こちらは元々、派遣や仕事用に構えた電話番号ですので漏れても問題ないのです。
本名はフェイスブックを見れば分かる状態になっているので、元々漏れている状態になっている。自分としては問題ないのです。
ただ、詐欺的な手法で個人情報を取られたのはちょっと自分が甘かったなと思いました。まずスクウェア・エニックスの人事担当なのに自分の顔写真のアイコンもない時点で変だなと疑うべきでしたし、人事やリクルート関係のLinkedInアカウントは日中はオンラインになっています。また求人情報も自サイトで紹介せず求人情報を掲載できるサービスで提供していたりなど不可解な点がありました。そしてスクウェア・エニックスの方だったら電話面談じゃなくzoom面談だろうなと思います。
自分のようにもしかしたら、騙される人も中にはいるかと思いますので、今回、注意喚起としてブログに掲載いたしました。皆さんも騙されないように気おつけてくださいね?
最後にLinkedIn(リンクトイン)は良いサービスですが、上記のような事もあるので注意してくださいな?
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
050, LinkedIn, SNS, アカウント, エニックス, お誘い, こちら, スクウェア, ビジネス, フェイスブック, リンクトイン, 中, 予定, 人, 人事, 今日, 仕事, 個人, 名前, 外, 情報, 情報漏れ, 手法, 時間, 晴天, 本名, 本日, 派遣, 温度, 特化, 状態, 番号, 自分, 部屋, 電話, 面談,

算数問題が100問ランダムで生成されます。そんなツールを作りました。
2021.08.08
暑い日が続いています、このまま茹でダコにでもなってしまいそうな部屋の温度ですが・・・エアコンは殆どOFFで日中を過ごして夕方から夜中まで稼働させております。そんな日を過ごしていて、たまに外へ出かけると夏休みなのか、学生さんたちが自転車でうろうろしているのを見かけるようになってきました。
そんな中で算数問題が100問ランダムで生成されるそんなツールを作りました。100問を暗算で計算すると中々、100点が取れないという事がわかってしまい、自分でもビックリしてしまいました。簡単なはずなのに何故か、足し算を間違えて引いてしまったりと単純なミスがあり、満点が取れないという事実をしってしまい、少し落ち込んでいます。

あのドラゴン桜の中にある数学教師がやるスパルタのあれは本当にそうなんだなって実感しました。これを毎日解き続けることにより、算数(数学の基礎)に打ち勝つことが出来そうですね。因みに計算などしない日々を過ごしているとロクに計算できない頭になりますよ。自分は計算しない字も書かないので読み書きが出来ない、結構、ヤバい状況になっているようです、皆さんもこんな自分のようにならないように、たまには頭の体操をすることをオススメします。
最後に100問:算数のリンクを貼っときます。
https://zip358.com/tool/arithmetic/
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
100, off, あれ, エアコン, こと, このまま, これ, スパルタ, たま, ツール, ドラゴン, パス, びっくり, ミス, ランダム, 中, 中々, 事, 事実, 単純, 問題, 基礎, 夏休み, 夕方, 外, 夜中, 学生, 実感, 少し, 教師, 数学, 日, 日々, 日中, 暗算, 本当, 桜, 殆ど, 温度, 満点, 生成, 稼働, 算数, 簡単, 自分, 自転車, 茹でダコ, 計算, 足し算, 部屋,
この頃、超暑かったですが。
2020.08.26
この頃、猛暑が続きましたが暑いぐらいに来週あたりから徐々に温度が下がっていくそうです。下がったところで10月ぐらいまで暑さは続くのでしょうけれど・・・。この夏で体重が下がるかと思っていたのですが、全然痩せません。現状維持のままです、この頃、足の親指を痛めて早朝にウォーキングを辞めています、歩いていたら体重減っていたように思います。
足の親指が完治すればまた歩きに行こうと思います、来年までに体重が減れば良いのになあと思っていますが中々、どっぷりと太ってしまった。体重は減らないのが現状ですね。新陳代謝が年々下がっていくという事なので早く体重を下げてその体重を維持しないなと言う気持ちはあります。
若い時と同じように食生活をしていて、運動などをしていないひとは確実に普通の人はデブります。皆さんもお気をつけてくださいね。
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
10, ウォーキング, お気, デブ, ところ, ひと, まま, 中々, 事, 人, 体重, 夏, 完治, 新陳代謝, 早朝, 時, 普通, 来年, 来週, 気持ち, 温度, 猛暑, 現状, 皆さん, 維持, 親指, 足, 運動, 頃, 食生活,
お部屋の温度と湿度を表示しています。密かに?
2020.04.26
お部屋の温度と湿度を表示しています、その情報を残すようにコードを書きました、スマホなどでは表示できないけれどPCでは表示可能です。自分が引き篭もりってあの時は寒かったなぁとかあの日は暑かったなぁという事を思い出すために作りました。因みにMY-ROOMのソースコードを見ると大体どんな仕様かわかると思います。
基本的に暑い日でも昼間はあまり冷房をつけないようにしていましたが、ここ数年、じぶんの暑さの限度を超えている日があり、そういう日はエアコンをつけてます。暑さは我慢できないのだけど、高知県ということもあり寒さにはある程度、我慢できて足温器だけで何とか生きていけます。今年はそれほど寒い日もなく暖冬かなと思います。ただ今年はとても暑くなりそうな気がします。
温暖化防止したいだけど・・・かなり暑いだよね。フロンは出していないのですが、それでも温暖化に影響有るだろうなぁと思いつつ。エアコンをつけてます。
ごめんなさい。
最後にMY-ROOMはこちら
https://zip358.com/my-room/
著者名
@taoka_toshiaki
※この記事は著者が40代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
MY-ROOM, PC, エアコン, お部屋, かなり, コード, ここ, こと, じぶん, スマホ, ソース, ため, フロン, 事, 今年, 仕様, 冷房, 可能, 影響, 情報, 我慢, 数, 日, 昼間, 時, 暖冬, 気, 温度, 温暖化, 湿度, 自分, 表示, 足温器, 防止, 限度, 高知県,
部屋の温度と湿度をリアルタイムでうぅううします。
2018.09.01
https://zip358.com/tool/kion_shitudo/
IOTとかいう奴ですね、Raspberry Piを使用して部屋の温度と湿度を
90秒置きに表示するようなものを作りました。
あぁぁエアコンとか平日はつける事はないので
部屋の温度はこの時期、汗だくです・・・。
ふふふうふ?。
ちなみに温度センサーのプラスとマイナスをRaspberry Piに反対接続して
なんか温度センサーが熱い状態になってましたが
何とか問題なくいまは動いてます・・・・。
あとはPHPとPythonでそれぞれプログラムコードを書いて
ゴニョゴニョしてサーバ側に表記しています。
著者名
@taoka_toshiaki
※この記事は著者が30代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
-Physi, 01, 3, 4, 90, asin, Clear, com, CSFZ, Decker, IoT, JG, jp, kion, model, php, Pi, ple, Python, Raspberry, shitudo, tool, zip358, あと, いま, エアコン, ケース, コード, ゴニョゴニョ, サーバ, セット, センサー, それぞれ, ふうふ, プラス, プログラム, ポート, マイナス, もの, リアルタイム, 事, 使用, 反対, 奴, 対応, 平日, 接続, 時期, 温度, 湿度, 状態, 表示, 表記, 部屋,
馬鹿なことが言えるぐらいの環境でないと駄目だ。
2016.08.20
この記事が投稿が公開されている頃には温度が少しでも
下がっていて欲しいものです。扇風機だけでは耐えれない温度が
続いていますよね。
今日のお題は「馬鹿なことが言えるぐらいの環境でないと駄目だ。」です。
これはホントそう思うです。
簡単にいえばちょっとした洒落が言えない環境は
全然面白くもない環境だといえますし
そんな中で出てきたアイデアなんてものは
誰でも考えうるアイデアだと。
頭でっかちな人間が集まると
ガチガチに規則でがんじがらめにしていまい。
最後には何も意見の言えない環境になってしまうのです。
少しぐらい馬鹿なことが言える環境を
残して置かないと良い物や良い発想は生まれません。
遊びの中からアイデアなんていうものは
生まれてくるものなのですから。
著者名
@taoka_toshiaki
※この記事は著者が30代前半に書いたものです.
Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki
タグ
B015IGZGDG, お題, カタチ, がんじがらめ, 人間, 少し, 意見, 扇風機, 技術, 欲しいもの, 洒落, 温度, 環境, 良い物, 良い発想, 規則, 遊び,